PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GDDR4 mit 1,6 GHz


Atma
2006-02-15, 21:38:19
Siehe artikel bei Computerbase: http://www.computerbase.de/news/hardware/arbeitsspeicher/2006/februar/samsung_gddr4_32_ghz/

Da sag ich ganz einfach mal nur: Hut ab ! die die niedrigen zugrifszeiten und den hohen takt steigt die Bandbreite enorm :eek:

Gast
2006-02-15, 21:40:19
GDDR4 mit 3,2 Ghz ist grober Unfug. ;)

Atma
2006-02-15, 21:42:09
GDDR4 mit 3,2 Ghz ist grober Unfug. ;)

Zitat: Die neuen Speicherchips für Grafikkarten kommen mit einer Zugriffszeit von 0,6 ns aufwarten und ist damit für einen Speichertakt von mehr als 1,6 GHz (effektiv 3,2 GHz) ausgelegt.

:rolleyes:

Coda
2006-02-15, 21:43:25
Richtig. Es bleiben aber dennoch 1,6Ghz. Dieser "effektive Takt" ist einfach nur dumm.

Gast
2006-02-15, 21:43:48
Die 3,2 Ghz sind trotzdem grober Unfug. Der Speicher taktet mit 1,6 Ghz.

Super Grobi
2006-02-15, 21:44:54
Ich finde solche News nicht toll. Bedeutet doch nur das sich das Rad noch schneller dreht und High-End noch schneller zu Kernschrott mutiert.

Es macht keinen Spass mehr!

SG

Edit: Bevor ich wieder geschimpft werde: Ich meine das die Schritte immer größer werden von Generation zu Generation

Gast
2006-02-15, 21:45:48
@Threadstarter: Lies dir mal diesen Artikel durch:http://www.3dcenter.org/artikel/2003/03-23_a.php

Dann verstehst du auch, warum das DDR-Verfahren die Taktraten eben nicht verdoppelt. Das ist Marketing-DAU-Blödsinn. Der Takt bleibt bei 1,6 Ghz.

Mark
2006-02-15, 21:54:21
wobei man nicht vergessen sollte:

1.6ghz? :eek:

Gast
2006-02-15, 22:13:32
Frag mich wieso Computerbase diesen "effektive Taktfrequenz"-Schwachsinn überhaupt weiterverbreitet.

In letzter Zeit (Einstellungen bei AoE3, bri vs. tri und jetzt das) denk ich immer öfter ich bin versehentlich bei Computerbild anstatt bei Computerbase gelandet. ;D

Atma
2006-02-15, 22:19:03
Ok ok ok hab den Threadtitel mal angepasst :rolleyes:

Gast
2006-02-15, 22:23:07
Ich finde solche News nicht toll. Bedeutet doch nur das sich das Rad noch schneller dreht und High-End noch schneller zu Kernschrott mutiert.

Es macht keinen Spass mehr!
Freu dich doch. Dann bekommst du den vermeintlichen "Schrott" der letzten Generation nämlich fürn Appel undn Ei hinterhergeschmissen.

Kladderadatsch
2006-02-15, 22:27:35
wow, da fragt man sich doch gleich, ob man die 6800gt nun doch noch bis winter 06 stecken lassen und somit die 7900gtx auslassen soll. das muss ja mit ordentlichen core-taktraten eine kaum vorstellbare performance reißen;)

Spasstiger
2006-02-15, 22:31:13
Frag mich wieso Computerbase diesen "effektive Taktfrequenz"-Schwachsinn überhaupt weiterverbreitet.

Das ist in der Hardwarebranche Gang und gebe. Auch ich gebe meist in Klammer dazu den effektiven Takt an, um Missverständnissen vorzubeugen. In diesem Fall also: 1,6 GHz (3,2 GHz effektiv).

Trap
2006-02-15, 22:40:12
XDR hat mit 4,8 Gigabit pro Sekunde aber immernoch deutlich die Nase vorn...

Spasstiger
2006-02-15, 23:03:24
Was willst du mit 4,8 GBit/s und woher hast du überhaupt diesen falschen Wert?
1,6 GHz GDDR4 sorgt zusammen mit einem 256 Bit SI für eine Speicherbandbreite von 819,2 GBit/s.

Gast
2006-02-15, 23:18:52
Das ist in der Hardwarebranche Gang und gebe.Was es aber nicht richtiger macht. Eine Hardwareseite, die was auf sich hält, sollte von so einem Unsinn Abstand nehmen.

WEGA
2006-02-15, 23:23:30
Edit: Bevor ich wieder geschimpft werde: Ich meine das die Schritte immer größer werden von Generation zu Generation
genau, vortschritt ist schlecht und eckige reifen sind besser als runde

Spasstiger
2006-02-15, 23:27:59
Was es aber nicht richtiger macht. Eine Hardwareseite, die was auf sich hält, sollte von so einem Unsinn Abstand nehmen.

Computerbase hat es imo genau richtig gehalten. Sie haben zunächst den realen Takt hingeschrieben und dann, um Missverständnissen vorzubeugen, in Klammern noch den effektiven Takt daneben.
Es könnte mit 1,6 GHz ja schließlich auch der effektive Takt gemeint sein. Und dass der Begriff "effektiver Takt" falsch ist, würde ich so nicht sagen, der Begriff ist da und er ist ganz klar definiert als Vielfaches des realen Taktes bei Speicher mit Multi-Data-Rate-Technologie wie z.b. bei DDR.
Sogar die IHVs verwenden den Begriff "effektiver Takt" oder "Effektivtakt".

Gast
2006-02-15, 23:35:34
Sogar die IHVs verwenden den Begriff "effektiver Takt" oder "Effektivtakt".Na rate mal warum. 1 Ghz verkauft sich einfach besser als 500 Mhz. Ich würde auch dir empfehlen den weiter oben von mir verlinkten Artikel von Gloomy zu lesen. Ich denke dann wird auch dir klar warum der Begriff "effektiver Takt" Schwachsinn ist. Warum sagt man nicht einfach "1,6 Ghz mit DDR-Verfahren"?

Gast
2006-02-15, 23:39:28
Zu "Computerbase hat es genau richtig gehalten": Warum steht dann in der Überschrift nur "Samsung GDDR4 mit 3,2 Ghz"?

100 Mhz entsprechen 100 Millionen Takt in der Sekunde, ob jetzt das DDR-Verfahren genutzt wird oder nicht. Oder denkst du nur weil DDR benutzt wird, sind es auf einmal 200 Millionen Takt in der Sekunde?

Gast
2006-02-15, 23:42:25
Wenn das denn das einzige wäre, was ich an Computerbase zu bemängeln hätte... Bis vor kurzem fand ich die echt gut, aber was die zur Zeit alles so verzapfen ist schon nicht mehr schön.

Die Einstellungen bei AoE3 (64bit-Framebuffer vs. 32bit-Framebuffer, MSAA vs. SSAA), die Treibereinstellungen (brilinear vs. trilinear) usw. Das könnte man echt denken man hat sich vertippt und ist bei Computerbild gelandet.

Spasstiger
2006-02-15, 23:44:33
Na rate mal warum. 1 Ghz verkauft sich einfach besser als 500 Mhz. Ich würde auch dir empfehlen den weiter oben von mir verlinkten Artikel von Gloomy zu lesen. Ich denke dann wird auch dir klar warum der Begriff "effektiver Takt" Schwachsinn ist. Warum sagt man nicht einfach "1,6 Ghz mit DDR-Verfahren"?

Jetzt stör dich doch nicht an diesem Begriff. Fakt ist, dass der Begriff im Sprachgebrauch existiert. Fakt ist, dass der Begriff eine klare Definition hat, wenn die Definition aus technischer auch nicht so viel Sinn macht. Das macht die Definition aber nicht falsch! Und Fakt ist auch, dass viele beim Speichertakt erst an den Effektivtakt denken und es deshalb hilfreich ist, wenn beide Takte angegeben werden.

Jedenfalls halte ich es für kleinkariert, Computerbase wegen der Verwendung des Begriffes Effektivtakt einen Vorwurf zu machen, zumal ja die Angabe dessen nur in Klammern auftauchte.
Kein Hardwaremagazin würde in meinen Augen seriöser, besser oder sonstwas werden, nur weil auf den Begriff des Effektivtaktes gänzlich verzichtet werden würde. Bedenken habe ich nur, wenn der Effektivtakt angegeben wird, ohne hinzuzuschreiben, dass der Effektivtakt gemeint ist.

Zu "Computerbase hat es genau richtig gehalten": Warum steht dann in der Überschrift nur "Samsung GDDR4 mit 3,2 Ghz"?
Die übliche Sensationsgeilheit halt. Wer den Text liest, weiß aber Bescheid. Natürlich könnte man die Überschrift korrekter halten durch den Zusatz "effektiv". Aber da ich eigentlich nur auf den Inhalt von News achte, ist mir die Überschrift bis jetzt, wo du es erwähnst, gar nicht aufgefallen. ;)

Gast
2006-02-15, 23:52:48
Jedenfalls halte ich es für kleinkariert, Computerbase wegen der Verwendung des Begriffes Effektivtakt einen Vorwurf zu machen, zumal ja die Angabe dessen nur in Klammern auftauchte.Wie ich weiter oben schon geschrieben habe, ist das bei weitem nicht das einzige, was mich an CB stört. Ja, es machen sogar fast alle Hardwareseiten so, weil es sich eben eingebürgert hat. Trotzdem ist es nicht richtig und genau hier sollte man als Hardwareseite ansetzen um diesen Schwachsinn aus den Köpfen der Leser zu vertreiben.

Es ist natürlich keine Katastroph wenn CB von der effektiven Taktrate spricht. Aber es ist meiner bescheidenen Meinung nach auch nicht das Optimum. ;)

Viel schlimmer sind da in meinen Augen die anderen Sachen, die CB in letzter Zeit verbrochen hat (64bit-Framebuffer vs. 32bit-Framebuffer, bri vs. tri, MSAA vs. SSAA). Vor allem deshalb brachte ich den Computerbild-Vergleich.

orda
2006-02-16, 00:44:00
Fragt sich nur noch, ob noch ein paar ordentliche Spiele für den PC rauskommen werden in nächster Zeit, die diese Bandbreite überhaupt ausnutzen werden. Ausgenommen Grafikblender ohne Sinn und Spaß.

BlackBirdSR
2006-02-16, 00:52:48
Fragt sich nur noch, ob noch ein paar ordentliche Spiele für den PC rauskommen werden in nächster Zeit, die diese Bandbreite überhaupt ausnutzen werden. Ausgenommen Grafikblender ohne Sinn und Spaß.

Keine Sorge.
Die Spiele profitieren von der geringeren Latenz schon.
Die theoretische Speicherbandbreite ist eh nur ein Blender in dieser Hinsicht.

martma
2006-02-16, 08:18:38
wow, da fragt man sich doch gleich, ob man die 6800gt nun doch noch bis winter 06 stecken lassen und somit die 7900gtx auslassen soll. das muss ja mit ordentlichen core-taktraten eine kaum vorstellbare performance reißen;)

Wenn Du so denkst, kannst Du den Nachfolger der 7900GTX auch noch auslassen, denn 2008 kommt bestimmt GDDR5 mit einer Million MHz. Ich finde, man sollte halt dann kaufen, wenn man entweder Lust dazu hat, oder wenn halt die alte Hardware zu langsam wird. Denn wenn Du jetzt auf die 7900GTX wartest, brauchst Du sie am Erscheinungstag auch nicht mehr kaufen, denn dann spricht ja eh schon wieder jeder über die z.B. 8800GTX.

Simon Moon
2006-02-16, 08:59:14
Wenn Du so denkst, kannst Du den Nachfolger der 7900GTX auch noch auslassen, denn 2008 kommt bestimmt GDDR5 mit einer Million MHz. Ich finde, man sollte halt dann kaufen, wenn man entweder Lust dazu hat, oder wenn halt die alte Hardware zu langsam wird. Denn wenn Du jetzt auf die 7900GTX wartest, brauchst Du sie am Erscheinungstag auch nicht mehr kaufen, denn dann spricht ja eh schon wieder jeder über die z.B. 8800GTX.

Nur, dass 1,6Ghz ggü. den momentanen <800Mhz doch 100% mehr sind. Wenn das in näherer Zukunft liegt, also durchaus eine Überlegung wert. Die Frage ist nur, inwiefern profitieren zukünftige Grafikkarten noch von soviel mehr Speichertakt. Füllrate für eine Darstellung ohne AA/AF ist denke ich langsam ausreichend, es fehlt da wohl eher an der Shaderpower bzw. ATis Verhältnis könnte ganz gut sein.
Shader und AF brauchen jedoch bekanntlich nicht soviel Bandbreite. Bei AA ist es auch nur das SSAA, welches Speicherbandbreite benötigt (aber wohl etwa im gleichen Masse Füllrate).
Wenn man nun bei ATi schauen würde, wieviel Pixelfüllrate eine Grafikkarte (mit dem 3:1 Verhältnis von Pixelshader / Texturunit) benötigt, um dieses ~100GB/s auszulasten, würde wohl eine (für den jetzigen Zeitpunkt) enorme Shaderleistung resultieren. Spekuliert man nun, dass niemand unnötig teuren Speicher verbaut und der genannte Speicher verbaut wird, dann würde dies, wenn sie dieses Jahr noch kommt, wohl doch ein enormer Sprung sein.

Hoffe ist einigermassen verständlich und nicht zuviel Bockmist drin. ;)

mboeller
2006-02-16, 09:53:18
Jetzt wissen wir auch warum der RV560 nur 128bit hat. Reicht mit 1,25 - 1.6GHz-RAM locker aus.


andererseits kann eine Highend-Karte die 100GB/sec locker verbraten.

800MHz x 16 TMUs x [ 64bit ( HDR Framebuffer ) + 32bit x 2 ( Z-Buffer ) ] = 200GB/sec

Ist zwar nur ein rein thoretischer Wert ohne Multitexturing, lange Shader etc... ; zeigt aber das die 100GB/sec von Highend-Karten bestimmt ausgenutzt werden.

Atalan
2006-02-16, 10:46:25
Wenn man Verwirrung vermeiden will bei der Geschwindigkeit redet man in der Branche oft von der Datenrate auf den Datenpins (weiß ich zufällig da ich im Speichertestbusiness arbeite). Ein GDDR-3 mit zB 700MHz hat also dann eine Datenrate von 1.4GBit/s. Die MHz Zahl alleine sagt ja gar nichts, zB hat ein typischer XDR ja "nur" 400MHz aber eine Datenrate von 3.2GBit/s und auf die kommt es im Endeffekt an (wobei der XDR dank differentiellen Pins doppelt soviele Leitungen braucht, also _pro Signalpin_ nur die halbe Rate schafft).

Atalan

BlackBirdSR
2006-02-16, 10:53:48
Wenn man Verwirrung vermeiden will bei der Geschwindigkeit redet man in der Branche oft von der Datenrate auf den Datenpins (weiß ich zufällig da ich im Speichertestbusiness arbeite). Ein GDDR-3 mit zB 700MHz hat also dann eine Datenrate von 1.4GBit/s. Die MHz Zahl alleine sagt ja gar nichts, zB hat ein typischer XDR ja "nur" 400MHz aber eine Datenrate von 3.2GBit/s und auf die kommt es im Endeffekt an (wobei der XDR dank differentiellen Pins doppelt soviele Leitungen braucht, also _pro Signalpin_ nur die halbe Rate schafft).

Atalan


Wobei das Problem der Datenrate ist, dass sie ein rein theoretischer Wert ist.
Der wird so nie erreicht, und dient zwar dem Marketing, aber nicht den Usern.
Insofern gibt es keine passende Leistungsbeziechnung für Speicher.
Ob nun 1.6GHz oder 3.2 effektiv ist meiner Meinung nach, beides ohne große Aussagekraft.
Die Gefahr bei 3.2GHz effektiv (oder Datenrate) besteht allerdings im Marketingmissbrauch.

Gast
2006-02-16, 11:55:53
Bei AA ist es auch nur das SSAA, welches Speicherbandbreite benötigt Öhm, nein. ;)

Botcruscher
2006-02-16, 11:57:44
Freu dich doch. Dann bekommst du den vermeintlichen "Schrott" der letzten Generation nämlich fürn Appel undn Ei hinterhergeschmissen.

Oder noch billiger im Gebrauchtmarkt. So viel Leistungsteigerung für so wenig Geld gabs noch nie.

Coda
2006-02-16, 12:16:54
Das ist in der Hardwarebranche Gang und gebe. Auch ich gebe meist in Klammer dazu den effektiven Takt an, um Missverständnissen vorzubeugen. In diesem Fall also: 1,6 GHz (3,2 GHz effektiv).Es ist auch nicht effektiv 3,2Ghz. Wenn dann must du schreiben: (Transferrate: 3,2GT/s).

Spasstiger
2006-02-16, 13:08:08
Es ist auch nicht effektiv 3,2Ghz.

Das ist reine Definitionssache. Klar, wenn man nur aus technischer Sicht rangeht, stört man sich an der Angabe. Aus sprachlicher Sicht sind die 3,2 GHz aber voll berechtigt als doppelte Taktfrequenz bei DDR-Speicher.

Coda
2006-02-16, 13:12:42
Nein das ist keine Definitionsssache. Es liegen nirgends 3,2Ghz an bei diesem Speicher.

Aus sprachlicher Sicht sind die 3,2 GHz aber voll berechtigt als doppelte Taktfrequenz bei DDR-Speicher.Nein. Du solltest auch mal den Artikel lesen.

BlackBirdSR
2006-02-16, 13:13:29
Nein das ist keine Definitionsssache. Es liegen nirgends 3,2Ghz an bei diesem Speicher.

Wäre auch schwer dafür, diesen "Sprachgebrauch" aus dem Forum zu verbannen.
Er ist nichts als irreführend und inkorrekt.

Black-Scorpion
2006-02-16, 14:06:52
Das ist reine Definitionssache. Klar, wenn man nur aus technischer Sicht rangeht, stört man sich an der Angabe. Aus sprachlicher Sicht sind die 3,2 GHz aber voll berechtigt als doppelte Taktfrequenz bei DDR-Speicher.
Deppenverdopplung ahoi. ;)

Seit wann verdoppelt sich die Taktfrequenz?

Gouvernator
2006-02-16, 14:10:39
Wenn Du so denkst, kannst Du den Nachfolger der 7900GTX auch noch auslassen, denn 2008 kommt bestimmt GDDR5 mit einer Million MHz. Ich finde, man sollte halt dann kaufen, wenn man entweder Lust dazu hat, oder wenn halt die alte Hardware zu langsam wird. Denn wenn Du jetzt auf die 7900GTX wartest, brauchst Du sie am Erscheinungstag auch nicht mehr kaufen, denn dann spricht ja eh schon wieder jeder über die z.B. 8800GTX.


Ja das stimmt. Eine Grafikkarte ist niemals zu schnell. Ich freue mich wenn neue viel schnellere Grafikkarten am Markt sind.

Spasstiger
2006-02-16, 14:20:35
Seid ihr eigentlich alle geistig so beschränkt auf technische Sachverhalte? Effektiver Takt ist im Sprachgebrauch sogar bei den IHVs üblich. Es gibt eine Definiton dieses Begriffes, die zwar weniger technischen Ursprung als viel mehr eine Erfindung des Marketing ist, aber dieses Definition ist eindeutig und dadurch auch nicht falsch.
Wenn ein Hardwaremagazin in Klammern zusätzlich zu realen Taktfrequenz noch den effektiven Takt angibt, dann dient das nur der Vorbeugung von Missverständnisse, ganz einfach weil sich der Begriff effektiver Takt eingebürgert hat.

up¦²
2006-02-16, 14:24:11
PR Samsung ...

Designed with 80-nanometer process technology, the device has a 12.8GB/sec processing speed, 30 percent faster than the previous prototype, which allows it to transfer the equivalent of up to six DVD-quality movies every second. The 512Mb GDDR4 graphics DRAM comes with 32 input/output pins, each of which transfers data at 3.2Gb/sec. In October, Samsung completed samples of a 256Mb GDDR4 that processed video (and accompanying audio) at 10 gigabytes per second.

"With such phenomenal processing speed, we're able to offer video card manufacturers the bandwidth for incredibly life-like movements and richly textured imagery that will soon rival that of cinematic movies," said Mueez Deen, Marketing Director, Graphics Memory and Mobile DRAM, Samsung Semiconductor.
http://www.samsung.com/Products/Semiconductor/News/GraphicsMemory/GraphicsMemory_20060214_0000233753.htm

martma
2006-02-16, 14:26:39
Seid ihr eigentlich alle geistig so beschränkt auf technische Sachverhalte? Effektiver Takt ist im Sprachgebrauch sogar bei den IHVs üblich. Es gibt eine Definiton dieses Begriffes, die zwar weniger technischen Ursprung als viel mehr eine Erfindung des Marketing ist, aber dieses Definition ist eindeutig und dadurch auch nicht falsch.
Wenn ein Hardwaremagazin in Klammern zusätzlich zu realen Taktfrequenz noch den effektiven Takt angibt, dann dient das nur der Vorbeugung von Missverständnisse, ganz einfach weil sich der Begriff effektiver Takt eingebürgert hat.


Da bin ich mal ganz Deiner Meinung. Manche meinen scheibar, wenn sie auch mal was wissen, oder gelesen haben, dies unbedingt mit allem Nachdruck kundtun zu müssen. Derweil ist das hier doch echt so scheißegal wie sonst was. Jeder weis was mit "effektiv" gemeint ist, und gut is! Ich wies nicht, wie man sich da so drüber aufregen kann.

Black-Scorpion
2006-02-16, 14:28:11
Das ändert aber nichts daran das es falsch ist.
DDR heißt nunmal Double Data Rate und hat mit der Taktfrquenz nichts zu tun.
Die bleibt bei 1,6GHz.
Und wenn es noch tausend andere falsch schreiben wird es dadurch nicht richtig.

Atalan
2006-02-16, 14:34:19
Wobei das Problem der Datenrate ist, dass sie ein rein theoretischer Wert ist.
Der wird so nie erreicht, und dient zwar dem Marketing, aber nicht den Usern.
Insofern gibt es keine passende Leistungsbeziechnung für Speicher.
Ob nun 1.6GHz oder 3.2 effektiv ist meiner Meinung nach, beides ohne große Aussagekraft.
Die Gefahr bei 3.2GHz effektiv (oder Datenrate) besteht allerdings im Marketingmissbrauch.

Wie jetzt schon bis zum Koma breitgetreten wurde ist GHz definitiv falsch (auch wenn man es durchaus verstehen kann). GBit ist dagegen durchaus üblich (siehe die Samsung Pressemitteilung die einer hier gepostet hat) und so verwenden es die Hersteller auch in ihrem Sprachgebrauch weil es eben korrekt ist.

Bei Gigatransaktionen wird es wieder schwieriger, da ja die einzelnen Bits nicht unabhängig voneinander übertragen werden (stichwort Prefetch), die Anzahl der _unabhängigen_ Transaktionen ist eine Größenordnung niedriger. Ich würde da aber nichts neues erfinden da es mit Gigabit einen präzisen und korrekten Begriff gibt.

Übrigens wird diese Rate auch tatsächlich praktisch erreicht, dank Gapless Bursts kannst Du den ganzen Speicher mit der Rate zuschreiben. Was davon in der Applikation mit einer GPU (außer bei simplen Clear-Operationen) übrigbleibt ist natürlich geringer aber das hängt an sehr vielen Faktoren von denen der GDDR eben nur einer ist.

Atalan

Simon Moon
2006-02-16, 15:02:02
Auch wenns ja eigentlich allen Klar ist, bsp. aus der echten welt.
Wenn ich 2x pro Sekunde mit einem Finger auf den Tisch klopfe, sind das 2Htz. Wenn ich 2x pro Sekunde mit zwei Fingern auf den Tisch klopfe, sind das immernoch 2Htz. Auch wenn "4 Finger" innerhalb einer Sekunde den Tisch berühren.
Der Unterschied ist insofern relevant, was Latenz und Effizienz anbelangt.

BlackBirdSR
2006-02-16, 15:15:26
Seid ihr eigentlich alle geistig so beschränkt auf technische Sachverhalte? Effektiver Takt ist im Sprachgebrauch sogar bei den IHVs üblich. Es gibt eine Definiton dieses Begriffes, die zwar weniger technischen Ursprung als viel mehr eine Erfindung des Marketing ist, aber dieses Definition ist eindeutig und dadurch auch nicht falsch.
Wenn ein Hardwaremagazin in Klammern zusätzlich zu realen Taktfrequenz noch den effektiven Takt angibt, dann dient das nur der Vorbeugung von Missverständnisse, ganz einfach weil sich der Begriff effektiver Takt eingebürgert hat.

1. Ganz ruhig. Ich würde mich nur ungern als geistig beschränkt beschimpfen lassen.

2. Mir ist es eigentlich egal, was das Marketing sagt.
Ich weiß ganz genau, dass der Begriff "effektiver Takt" totaler Unsinn ist.
"Effektiv" als Wort beinhaltet schon alle Abzüge, und bezieht sich auf den reellen Ertrag.
Mit hinischt auf DDR-Speicher gleicht das einer Perversion.

Mir persönlich ist es daher lieber, dieser PR-Masche nicht unbedingt mitzumachen. Und dafür die Leute generell besser über das Verfahren aufzuklären.

Spasstiger
2006-02-16, 15:28:22
@BlackBirdSR: Ich kann deine Ansicht voll und ganz nachvollziehen und sorry für die Beleidigung.
Aber ich halte es aber auch für sinnvoll, wenn man ergänzend noch den effektiven Takt angibt, solange man mit dem Artikel nicht nur eine Hand voll Technikfreaks ansprechend möchte.
Und Computerbase spricht in meinen Augen eben eine breitere Zielgruppe an.

BlackBirdSR
2006-02-16, 15:42:27
@BlackBirdSR: Ich kann deine Ansicht voll und ganz nachvollziehen und sorry für die Beleidigung.
Aber ich halte es aber auch für sinnvoll, wenn man ergänzend noch den effektiven Takt angibt, solange man mit dem Artikel nicht nur eine Hand voll Technikfreaks ansprechend möchte.
Und Computerbase spricht in meinen Augen eben eine breitere Zielgruppe an.

Aber warum den "effektiven" Takt?
Der sagt leider nichts korrektes aus. Und der Begriff selbst ist schon etwas widersprüchlich.

Besseren wären wirklich GBit

Gast
2006-02-16, 17:07:10
Und Computerbase spricht in meinen Augen eben eine breitere Zielgruppe an.Ob es das wert ist, wegen ein paar Klicks Unsinn zu verbreiten...

Gast
2006-02-17, 20:30:30
Hier mal ein Beispiel was für ein Müll dabei rauskommt, wenn man dauernd mit dieser Deppenverdoppelung rechnet:
Derweil zeichnet sich ab, dass die neuen Prozessoren tatsächlich nur einen 2 GHz schnellen HyperTransport-Bus (HT1000) vorweisen werden, wie es die Februar-Roadmap bereits andeutete. Vereinzelt hielt sich immer wieder das Gerücht, AMD werde den Referenztakt von 200 auf 333 MHz (real 100 respektive 166,66 MHz) steigern und damit auch die Bus-Anbindung nach außen beschleunigen.;D ;D ;D

Gast
2006-02-17, 21:14:30
Ist übrigens aus dieser News: http://www.computerbase.de/news/hardware/prozessoren/amd/2006/februar/amd_neue_cpus_6_juni_ddr2-800/

GloomY
2006-02-17, 22:54:29
Übrigens wird diese Rate auch tatsächlich praktisch erreicht, dank Gapless Bursts kannst Du den ganzen Speicher mit der Rate zuschreiben.Nein, kannst du nicht. Du kannst höchstens innerhalb einer Page ohne Pause schreiben (xor) lesen, aber nicht innerhalb des gesamten Speichers. Man kann außerdem eine Page nur eine bestimmte maximale Zeit lang geöffnet lassen (tRAS_max). Danach muss die Page zurückgeschrieben und erst wieder neu geöffnet werden.

Zum anderen vergisst du den bei DRAM nötigen Refresh. Man muss alle paar µs die Page zumachen (dauert tRP), ein paar Pages refreshen (tRFC), während dessen der RAM für den Transfer blockiert ist. Erst danach kann man wieder eine neue Page aufmachen und dann wieder mit dem Transfer weitermachen (dauert tRCD+CAS Latency).
Was davon in der Applikation mit einer GPU (außer bei simplen Clear-Operationen) übrigbleibt ist natürlich geringer aber das hängt an sehr vielen Faktoren von denen der GDDR eben nur einer ist.

AtalanKlar.
Derweil zeichnet sich ab, dass die neuen Prozessoren tatsächlich nur einen 2 GHz schnellen HyperTransport-Bus (HT1000) vorweisen werden, wie es die Februar-Roadmap bereits andeutete. Vereinzelt hielt sich immer wieder das Gerücht, AMD werde den Referenztakt von 200 auf 333 MHz (real 100 respektive 166,66 MHz) steigern und damit auch die Bus-Anbindung nach außen beschleunigen.Hier mal ein Beispiel was für ein Müll dabei rauskommt, wenn man dauernd mit dieser Deppenverdoppelung rechnet:
;D ;D ;DJa, das ist ein 1A-Beispiel dafür. Dann kann man eben nicht mehr zwischen normalem und verdoppeltem Takt unterscheiden. Man verliert außerdem noch den Blick dafür, wann es überhaupt Sinn ergibt, ein DDR-Protokoll zu benutzen. Wie hier in diesem Fall mit dem Referenztakt ist es vollkommen blödsinnig anzunehmen, dass hier eine DDR-Übertragung genutzt würde. Zumal ja bis auf den Takt nichts übertragen wird. Wie soll da eine DDR-Übertragung auf beiden Taktflanken funktionieren? Es gibt ja keine Datenleitungen, auf denen man Daten zum Zeitpunkt der steigenden bzw. fallenden Taktflanke übertragen könnte... :conf:

Ergo: Taktverdoppelung führt nur zu Problemen - zumal es technisch auch noch falsch ist. Mit Bezeichnungen wie "Datenrate pro Pin" oder "Mega-Transfers pro Sekunde" kann ich noch leben, weil es vom technischen Standpunkt aus betrachtet nicht wirklich falsch ist. Lieber ist mir aber dennoch der reale Takt mit dem Hinweis auf Übertragung auf beiden Taktflanken. :)

Gast
2006-02-18, 20:54:42
Bei AA ist es auch nur das SSAA, welches Speicherbandbreite benötigt (aber wohl etwa im gleichen Masse Füllrate).


eher im gegenteil, SSAA braucht füllrate und bandbreite, und für den fall das ein (sub)pixel mehr als einen takt benötigt (bereits bei simpler trilinearer filterung der fall ist) steigt der füllratenbedarf verhältnismäßig deutlich stärker als der bandbreitenbedarf.

MSAA braucht dagegen (fast) nur bandbreite und praktisch keine zusätzliche füllrate.

wenn man ordentliches HDR (mindestens FP16) mit MSAA verwenden will braucht man dringend eine deutliche bandbreitensteigerung.

Xmas
2006-02-18, 22:00:45
eher im gegenteil, SSAA braucht füllrate und bandbreite, und für den fall das ein (sub)pixel mehr als einen takt benötigt (bereits bei simpler trilinearer filterung der fall ist) steigt der füllratenbedarf verhältnismäßig deutlich stärker als der bandbreitenbedarf.
Bei höherer Auflösung (und somit auch bei Supersampling) sinkt die benötigte Bandbreite pro Pixel etwas. Das hat aber eher weniger damit zu tun, wieviele Takte das Berechnen eines Pixels braucht.

Gast
2006-03-02, 00:22:01
Wie ich weiter oben schon geschrieben habe, ist das bei weitem nicht das einzige, was mich an CB stört. Ja, es machen sogar fast alle Hardwareseiten so, weil es sich eben eingebürgert hat. Trotzdem ist es nicht richtig und genau hier sollte man als Hardwareseite ansetzen um diesen Schwachsinn aus den Köpfen der Leser zu vertreiben.

Es ist natürlich keine Katastroph wenn CB von der effektiven Taktrate spricht. Aber es ist meiner bescheidenen Meinung nach auch nicht das Optimum. ;)

Viel schlimmer sind da in meinen Augen die anderen Sachen, die CB in letzter Zeit verbrochen hat (64bit-Framebuffer vs. 32bit-Framebuffer, bri vs. tri, MSAA vs. SSAA). Vor allem deshalb brachte ich den Computerbild-Vergleich.

Also ich finde diese ünnötige Haarspalterei nicht angebracht.

Schon IMMER wurde der doppelte,effektive"Takt" bei DDR-Speicher angegeben.

ZB.Infineon DDR400-Speicher.Klar weiss jeder der halbwegs ne Ahnung hat,das dieser Riegel mit 200MHz Realtakt läuft-ABER(DDR bedingt)die DOPPELTE Datenmenge schaufelt.Dieser Sprachgebrauch wurde vom Umstieg von SD-Ram auf DD-Ram eingeführt zur besseren Leistungsunterscheidung,und PR natürlich.

Auch jede GK wird mit zB.GDDR3 1100MHz GF6800U und in Klammern 550MHz.

Also ist nach Erscheinen einer 7800GTX512 GDDR3 1700MHz natürlich logisch den Titel mit 3,6GHzGDDR4 zu nennen.

Also was soll die Aufregung?Im Endeffekt zählt die Datenmenge die geschaufelt werden kann.Siehe AMD Rating....

GloomY
2006-03-02, 02:05:13
Bei höherer Auflösung (und somit auch bei Supersampling) sinkt die benötigte Bandbreite pro Pixel etwas. Das hat aber eher weniger damit zu tun, wieviele Takte das Berechnen eines Pixels braucht.Sondern? Dass mehr Samples aus dem Texturcache kommen...?

Gast
2006-03-02, 12:17:23
ZB.Infineon DDR400-Speicher.Klar weiss jeder der halbwegs ne Ahnung hat,das dieser Riegel mit 200MHz Realtakt läuft-ABER(DDR bedingt)die DOPPELTE Datenmenge schaufelt.Dieser Sprachgebrauch wurde vom Umstieg von SD-Ram auf DD-Ram eingeführt zur besseren Leistungsunterscheidung,und PR natürlich.



da steht ja auch DDR400 und kein MHz, das ist ja auch OK, aber wenn man MHz dazuschreibt dann müssen es 200 sein.

Xmas
2006-03-02, 14:29:44
Sondern? Dass mehr Samples aus dem Texturcache kommen...?
Unter anderem, weil die Texturen öfter vergrößert werden. Dazu kommt dass die Dreiecke mehr Pixel belegen und damit weniger Verschnitt vorkommt. Und die benötigte Geometriebandbreite bleibt gleich, also sinkt die benötigte Bandbreite pro Pixel wenn die Anzahl der Pixel steigt.

GloomY
2006-03-02, 18:11:10
Dazu kommt dass die Dreiecke mehr Pixel belegen und damit weniger Verschnitt vorkommt.Was meinst du mit "Verschnitt"?
Und die benötigte Geometriebandbreite bleibt gleich, also sinkt die benötigte Bandbreite pro Pixel wenn die Anzahl der Pixel steigt.Klar :)

Xmas
2006-03-02, 21:08:42
Was meinst du mit "Verschnitt"?
Mit Verschnitt meine ich unvollständig bedeckte Framebuffer-Tiles.

Gast
2006-03-02, 23:12:33
da steht ja auch DDR400 und kein MHz, das ist ja auch OK, aber wenn man MHz dazuschreibt dann müssen es 200 sein.

Jupp,da hast du Recht.Doch im GK Markt wurde/wird oft die"doppelte Menge"angegeben,in MHz.

Ich weiss das es falsch ist,doch mein Gaynward ExpertTool plus dazugehörige GK zeigen beim UNTERTAKTEN meiner GPU(das Teil schaft den Plüschwurfel von ATI nicht fehlerfrei@default425MHz)beim Speicher auch 1100MHz.Und wir wollen Gaynward doch nix anzweifeln:)