PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Seagate: 300 Terabyte auf einer HDD bis 2010


drmaniac
2007-01-04, 14:25:31
http://www.computerbase.de/news/hardware/laufwerke/massenspeicher/2007/januar/seagate_300_terabyte_hdd_2010/


nd in den kommenden Jahren vor allem die neue „Heat-assisted Magnetic Recording“-Technologie (HAMR) anwenden. Durch diese können laut Angaben Seagates Daten mit Hilfe von Wärmestrahlung noch kompakter als bislang auf Datenträgern angeordnet werden. Unter Zuhilfenahme von HAMR möchte man bis zum Jahre 2010 Festplatten im 3,5-Zoll-Format erschaffen, die im optimalen Fall bis zu 300 Terabyte Daten speichern können

Wahnsinn :)

Meine Meinung:

n 2010 haben wir dann einen 300TB 3.5" Datenträger,

was bedeutet, dass wir uns dann auch 1" HDDs in den Rechner stecken können, die extrem klein, leise und stromsparend sind und trotzdem ~20 TB haben!

Außerdem könnte dann das Prinzip gelten : eine Festplatte fürs leben :D

d.h. alles, alles was man in seinem Leben an Daten produziert, erstellt, sammelt :biggrin: befindet sich schön geordnet :wink: und jederzeit zugreifbar auf nur einem Datenträger und wenn man mal den Liebesbrief für seine erste Freundin sucht, hat man ihn noch ;)

Wichtig wird dann nur: man sollte 1-2 1:1 Kopien machen als Backup und eine davon am besten auslagern...


Aber ich finde 300TB sau saugeil :)

Hoffe nur, die bekommen das auch wirklich hin...

gisbern
2007-01-04, 14:28:25
ehrlich gesagt hype ich auf sowas gar nicht, da so viel Speicher nicht zwangsläufig die HDD schneller macht. Ich würde mich über news wie : endlich 100 GB Flash Platten , etc. erheblich mehr freuen. Der Flaschenhals Festplatte wird immer auffälliger.

Crazy_Chris
2007-01-04, 14:37:25
Dort steht aber nicht das es dann auch solche Platten schon zu kaufen gibt. Denke eher das Diese Technik bestenfalls 2014 massentauglich wird.

Senior Sanchez
2007-01-04, 14:50:29
Dann wird es aber endgültig Zeit für die betriebssystemweite ZFS Einführung *g*

Avalox
2007-01-04, 14:51:10
Na ich hoffe mal stark, dass bis 2011 dann Festplatten ganz aus dem Rechner verschwunden sind. Ein Relikt vergangener Tage.

(+44)
2007-01-04, 14:53:07
Hmm, seit JAHREN stagnieren die HDD-Größen ja total.

2003-2004 gab es schon 400GB-HDD's, jetzt sind wir grademal bei 750GB.
Und ich erwarte nicht, dass bald die 5TB-HDD ansteht, einer der großen Hersteller wird dieses Jahr vllt ne 1TB-HDD bringen, dann folgen eventuell die 1.25TB usw, aber keine großen Sprünge mehr.

Oder kommt nächstes Jahr urplötzlich und wie aus dem Nichts eine 10TB-Platte mit der achso gepriesenen Perpendicular-Recording-Technologie? Ich bezweifel es ja.

Nicht dass ich diese Platten nicht auch will - klar steht die Performance in keinem Verhältnis zur Kapazität - aber im Zeitalter von HD-Inhalten brauchen wir HDD's die mehrere TB groß sind, man muss das Zeug ja in Erster Linie speichern können, und wenn man nicht grade HD-Video von Analog rippt braucht man keine so krasse Auslesegeschwindigkeit, da reicht es wenn wir immer mehr Ram im Rechner haben.

drmaniac
2007-01-04, 15:02:42
PPR wird uns die 1-2 TB Platten bescheren, ja. Wird ja sogar schon in vielen 2.5" HDDs eingesetzt.

Aber hier geht es um HAMR und wenn dieses nur die Hälfte verwirklicht, von dem, was es verspricht... :)

Klar das jeder gerne eine 1TB RAM Platte hätte mit 200GB/Sec Transfer, spricht ja auch nichts dagegen in 2010 dann eine 100/200GB RAM Platte zu nutzen (wenn auch "nur" SSD und nicht sooo schnell) aber die xxx TB Platten sehe ich wirklich als reine brachiale Datenspeicher :) Und bei der Datendichte werden diese nicht unbedingt langsam sein.

Wenn ich heute immer News über die neuste Holodisk lese, lache ich schon gar nicht mehr, aber diese HAMR Technik wird genau die PPR kommen, die können gar nicht anders

Crazy_Chris
2007-01-04, 15:10:40
HAMR aus der Wiki:

"Mit HAMR wird die Domäne, in welche Daten geschrieben werden sollen, zunächst lokal durch einen Laser erhitzt, um das für einen Schreibvorgang nötige Magnetfeld möglichst klein zu halten und das Schreiben trotz schwach ausgeprägten superparamagnetischen Effekts zu ermöglichen. Da beim Erhitzen aber das schützende Schmiermittel der Festplatte verdampft, will der Festplattenhersteller Seagate Nachschub in nanometerdünnen Kohlenstoffröhrchen speichern, welchen letztere bei Bedarf auf die betroffenen Domänen sprühen sollen."

hört sich doch sehr abenteuerlich an. :|

Avalox
2007-01-04, 15:14:14
sehe ich wirklich als reine brachiale Datenspeicher :)

Ich weiss nicht, warum soll man Zuhause Daten speichern? Macht doch nur Ärger. Kann kaputt gehen, man muss sich um ein BackUp kümmern, entweder man bezahlt zu viel, dann ist die Platte leer, oder andersrum man hat im unpassenden Moment genau zu wenig Platz auf der Platte. Festplatten sind doch heute nur nötig, weil es keine Alternative gibt.

Ich denke grosse Datenspeicher Zuhause sind weg, wenn die Datenanbindung Zuhause endlich vernünftige Züge annimmt. Ab 100Mbit/s an den Homeschreibtisch und man benötigt keine Zuhause Datenspeicherung mehr. Die Vorteile liegen auf der Hand. Man kann von überall auf seine Daten zugreifen. Kann sich seine Filme und Musik auf den Mobil Gerät unterwegs reinziehen, man bezahlt genau für das was man benutzt. Man verbraucht weniger Strom, der PC kann endlich vernünftig aussehen und ist kein hässliches Möbel mehr. Unempfindlich ist er zudem. Ich denke es wird die Zeit kommen, wo sich ein Käufer eine Festplatte fast schon den Generalverdacht aussetzt, Kinderpornographie und eigentlich Urheberrechtlich geschütztes Zeug Zuhause aufzubewahren.
Bis dahin wäre es schön, wenn die Scheiben der Festplatten kleiner werden, anstatt die Kapazität der Festplatte zu steigern.

drmaniac
2007-01-04, 15:36:07
Naja, es geht hier ja aber nicht um den Sinn einer Onlinespeicherung ;)
Außerdem würde ich private Daten nie außerhalb speichern, google macht vor, was sonst passieren kann

http://powerforen.de/forum/showthread.php?t=190810&highlight=google

Und wenn du kleine Platten willst: bitte, wie oben beschrieben sollte eine 0,8-1" mini platte drinn sein mit für heute gigantischer Größe :)

Avalox
2007-01-04, 15:48:57
Naja, es geht hier ja aber nicht um den Sinn einer Onlinespeicherung ;)
Außerdem würde ich private Daten nie außerhalb speichern, google macht vor, was sonst passieren kann

http://powerforen.de/forum/showthread.php?t=190810&highlight=google



Da ist doch die Frage ob so was nicht gar aus entscheidender Richtung gefördert wird.

Und wenn du kleine Platten willst: bitte, wie oben beschrieben sollte eine 0,8-1" mini platte drinn sein mit für heute gigantischer Größe :)

Ja. Kleinere Scheibendurchmesser haben ja viele Vorteile. Unempfindlicher, können schneller drehen, können schneller beschleunigt werden, sind preiswerter in der Herstellung usw.

Aber eines ist doch Fakt. Schon morgen werden Festplatten anders sein, wie die die wir heute kennen. Die Platten Hersteller stürzen sich allesamt auf Hybrid Drives. Flashspeicher wird schon morgen zu jeder Festplatte gehören.
Die Platten Hersteller finden das natürlich toll. Zum einen verschleissen diese Platten schneller, zum anderen öffnet es die Tür in den bisher mit Unbehagen gesehenen Flashspeicher Markt. Es ist doch absolut absehbar, bis entsprechende Notebook "Festplatten" überhaupt nicht mehr Hybrid sind, sondern nur noch Flashspeicher beinhalten.

Hybrid Lösungen sind immer Notlösungen. Vorteile aus beiden Welten, aber auch Nachteile aus beiden Welten + das Problem beides gleichzeitig zu handeln. Das Ziel wird immer sein, eines von beiden wieder schnell los zu werden. Eben dann wenn eine Ablösung des alten durch das neuere "hinreichend" möglich ist.

Ich denke Plattenhersteller sind im Homebereich schon längst auf dem Weg in das Flashdrive Geschäft. Neue Plattentechniken werden für den prof. Serverbereich entwickelt und für das kommende Content Streaming Geschäft u.a. braucht man grosse Serverspeicherplätze.

Gast
2007-01-05, 12:19:00
Flashspeicher wird schon morgen zu jeder Festplatte gehören.
Die Platten Hersteller finden das natürlich toll. Zum einen verschleissen diese Platten schneller, zum anderen öffnet es die Tür in den bisher mit Unbehagen gesehenen Flashspeicher Markt.

Hybrid Lösungen sind immer Notlösungen. Vorteile aus beiden Welten, aber auch Nachteile aus beiden Welten + das Problem beides gleichzeitig zu handeln. Das Ziel wird immer sein, eines von beiden wieder schnell los zu werden. Eben dann wenn eine Ablösung des alten durch das neuere "hinreichend" möglich ist.

Welch ein Unsinn!
Eine Hybrid Festplatte wird sicherlich nicht schneller verschleißen, im Gegenteil! Wenn die Hybrid Platte so aufgebaut ist, das die Mechanik geschont wird, dann sollten sie länger halten!
Klar, hält Flash nicht ewig, aber das spielt keine Rolle! Durch die Filesysteme werden alle Bereiche gleichmäßig beschrieben. Sollten einige davon kaputt gehen, egal: Bleibt noch genügend Platz über. Nur nimmt der Effekt des Cachens ab, bis er halt irgendwann ganz versagt. Danach sollte nur noch die normale Mechanik wie bisher zum tragen kommen. Die Plattenhersteller wären reichlich dämlich, die Funktion der Platte am Flash festzumachen, speziell im Businessbereich.

Das Prinzip wird umso interessanter, je größer der Flash Anteil ist. Wenn da nur 16 MB Flash drin sind, wunderts kaum, das der nach kurzer Zeit unbrauchbar ist. Aber bei 1 GB, wovon nur selten die volle Kapazität genutzt wird, ist die Lebensdauer locker mal um den Faktor X größer!
Flash wird jedoch immer billiger und größer und sollte daher einen immer größeren Anteil an der Platte einnehmen.

Schon jetzt gibt es einige nette Entwicklungen:
SanDisk bietet eine Solid State Disk (SSD) mit 32 GByte an. Das NAND-Flash-Laufwerk im 1,8-Zoll-Format verfügt über eine ATA-kompatible Schnittstelle und speichert 32 GByte. Als maximale Transferraten nennt SanDisk Werte von 62 MByte/s beim Lesen und 35 MByte/s beim Schreiben von Daten.

Die Leistungsaufnahme soll bei Aktivität lediglich 0,4 Watt betragen. Dank des Einsatzes des speziellen Flash-Dateisystems TrueFFS und Techniken zur Verteilung der Abnutzung der einzelnen Speicherzellen (Wear-Leveling) sichert SanDisk für seine SSD eine MTBF (Mean Time Between Failures) von zwei Millionen Stunden zu.

So spezifiziert SanDisk für seine SSDs eine mittlere Zugriffszeit von nur 0,12 ms.

Bei der Geschwindigkeit spricht schon fast nichts mehr für eine normale Platte. Denn die ist "größer", lauter, heißer, langsamer, unkomfortabler.

Den Vorteil den ich bei der Flash Technik sehe ist vorallem, die hohe Zuverlässigkeit.
Speziell, das Erschütterungen oder Temperaturen nicht mehr so entscheidend sind, welche sehr häufig zum Tod der Mechanik führten.

Ich wage mal zu behaupten, das wir 2010 bereits normale Flash Drives mit 512 GB bis 2 TB kaufen können. Da spielts dann auch keine Rolle mehr, wenn jede Zelle nur einige male wiederbeschreibbar ist. Denn wie lange würde es dauern, bis jede Zelle mehrere tausend mal beschrieben und zerstört würden, wenn nur 500 GB von 2 TB genutzt werden?

Tigerchen
2007-01-05, 15:02:48
Muß auch mal meinen Senf dazugeben. Mir ist die Technik ziemlich wurscht. Ich wünschte mir ne Platte die Gothic 3 in 5 Sekunden lädt. Sowas fehlt einfach bei den immer komplexeren Spielewelten. Wenn sowas im Regal stehtr wird sofort gekauft. Selbst wenn so eine Platte nur 24 oder 32GByte hat.

Don Vito
2007-01-05, 23:21:41
Muß auch mal meinen Senf dazugeben. Mir ist die Technik ziemlich wurscht. Ich wünschte mir ne Platte die Gothic 3 in 5 Sekunden lädt. Sowas fehlt einfach bei den immer komplexeren Spielewelten. Wenn sowas im Regal stehtr wird sofort gekauft. Selbst wenn so eine Platte nur 24 oder 32GByte hat.


Stimmt genau....wie z.B. auch die RAPTOREN sind einfach zu teuer für ihre Kapazität.....

superdash
2007-01-06, 00:45:28
Noch mal zum Online speichern:

Das wird in den nächsten 10 Jahren nicht möglich sein. Es gibt einfach nicht die nötigen Backbones dazu. Frankfurth hat zur Zeit in etwa gute 100GBit Traffic. Das würde gerade mal für 1000 User reichen, die mit vollen 100mbit ziehen wollen. Und 12mb/s sind wahrlich nicht sonderlich viel im Vergleich zu modernen Festplatten. Das wachstum der Internetbandbreite ist im Vergleich zu den Festplatten ähnlich schnell und hat daher kaum aufgeholt. Denn wenn man 1-2tb ins Internet auslagert, dann dauert das bei 100mbit ewig.

Und ich kann sagen ich spreche aus Erfahrung. Ich hab schon eine 100mbit Leitung und das kannst echt vergessen. Die meisten Server bringen noch nicht mal 500kb/s her (einzelne bringen mal 3mb/s). Da sind wir von den "tollen" 12mb/s noch meilenweit entfernt. Und wer soll das denn alles hosten?

Also Festplatten sind da eindeutig die praktischere Lösung, als riesige Datenmengen unnötig so weit zu transportieren.

gruß

Avalox
2007-01-06, 01:53:08
Noch mal zum Online speichern:

Das wird in den nächsten 10 Jahren nicht möglich sein.

Das ist aber ein mutige Prognose.

Alles bewegt sich in Richtung Onlinespeicherung.

Denn alles Hauptübel fängt damit an, dass jemand selbst Daten speichern kann und diese unkontrollierbar auf der heimischen Festplatte liegen.

Sei es nun ein subversiver Brief, raubkopierte Software, illegale Tools oder die zusammen kopierte Musiksammlung.

Du übersiehst bei deiner Überlegung, dass eine Onlinespeicherung gar nicht die Geschwindigkeit einer lokalen Datenspeicherung erreichen muss. Denn du arbeitest ja nicht mit dem kompletten Datensatz, sondern immer nur mit einem Ausschnitt davon. Ein Film wird in Realtime angesehen. Moderne HD Filme erreichen maximale Datenraten von 36Mbit/s. Man muss nicht den ganzen Film schnell runterladen. Es reicht die zum ansehen benötigte Datenrate nicht zu unterschreiten. Jetzt könnte man sagen, "ja ich will aber gleichzeitig ein Film aufnehmen". Nur ist es ja so, dass Aufnehmen gar nicht mehr nötig oder gar möglich sein wird. Man streamt das Medium bei Bedarf einfach neu. Wer mit seiner Digital Kamera Bilder schiesst wird diese nicht mehr auf einer Speicherkarte ablegen. Die Kamera wird diese automatisch in einen Online Speicher per UMTS oder einen der Nachfolger im Hintergrund hochladen.
Wenn man dann Zuhause ist, sind die Bilder schon Online verfügbar. Wer die Bilder dann bearbeiten will, der wird dieses mit einem Online Tool machen. Funktionen werden bei Bedarf in den alles beherschenden Webbrowser geladen. Software Anwendungen werden genrell nur noch online angeboten. Keine Firma wird mehr das Risiko eingehen und jemand einen Datenträger mit der Software in die Hand drücken. Viel zu gross ist die Gefahr, dass das Programm raubkopiert wird.
Der Anwender wird davon kaum was mitbekommen. Vielleicht freut er sich, denn er muss nichts mehr installieren. Er benötigt eine Anwendung, er schaltet diese sich frei. Es wird eine Verknüpfung angelegt, im Hintergrund bei Benutzung das Entgelt vom Konto abgebucht und fertig. Web 2.0 ebnet den Weg.

Das ist genau was alle wollen. Support Probleme werden extrem minimiert, der Kunde wird transparent, illegale Dinge werden im Keim erstickt und man kann gut verdienen.

Es wird natürlich ein längerer Prozess mit vielen Zwischenschritten werden. Aber ich bin sicher, dass Online Anwendungen bald gang und gebe sein werden. Wer erstmal auf seinen Handy die selbe Textverarbeitung Online nutzt, wie auf seinen PC wird irgendwann auch Briefe unterwegs dabei haben möchten. Bei EMail ist es ja schon so. Ich denke ein Grossteil der EMail werden schon heute niemals in einen lokalen Client geladen und erst recht nicht lokal gespeichert. Lokale Speicher sind unpraktisch. Bisher notwendig, aber eben unpraktisch.

Grosse Speicherkapazitäten werden in Zukunft benutzt um alle möglichen Bewegungsdaten zu speichern und eben digitalen Content streamfähig zu halten. Beide Ansprüche ergeben sich für Zuhause überhaupt nicht, eine Vorratsdatenspeicherung interessiert nicht und HD Medien wird man nicht bekommen.

Wer weiss wie sich Computerspiele in Zukunft entwickeln? Lacht hier wer über Browsergames?


Also Festplatten sind da eindeutig die praktischere Lösung, als riesige Datenmengen unnötig so weit zu transportieren.

Wie kommen denn die Daten auf die Festplatte? Diese sind dort drauf hinbewegt worden. Sei es das man in einen Shop gelaufen ist und sich eine Software auf DVD gekauft hat, oder von einen Kamera drauf kopiert hat. Grade die lokale Festplatte führt doch dazu, dass unnötig viele Daten doppelt gespeichert werden. Viele dieser Daten werden nie zu Lebzeiten der Platte jemals überhaupt benötigt und sind schlicht unnütz.

Ich bin fest der Meinung, dass in Zukunft lokal gespeicherte Daten als furchtbar rückständig gelten. Der gemeine User versteht schon heute nicht, warum seine lokal auf dem Arbeitsplatz PC gespeicherten Daten nicht an einem zweiten PC an den er sich anmeldet verfügbar sind. Daten sind virtuell das ist deren Vorteil, warum also lokal beschränken? Hast du was zu verbergen?

Gast
2007-01-06, 02:01:46
Mag sein, dass das noch ein paar Jahre dauert, aber irgendwann wird es soweit sein, dass die Internetverbindungen schnell genug sein werden, um alles, was nicht eh im Arbeitsspeicher/Prozessorcache liegt, irgendwo im Web auszu lagern. Bei dem Bedarf an Speicherkapazität sehe ich nämlich irgendwann mal eine Grenze. Momentan, wo über das Internet teilweise noch nichtmal verlustfreie (!) Tonaufnahmen in CD-Qualität gestreamt werden können, ist die Grenze natürlich noch lange nicht erreicht, aber wenn das Internet irgendwann mal schnell genug sein wird, verlustfreie 10000x10000x10000-Pixel-3D-Videos mit 200 fps (wahrscheinlich ist die Auflösungsgrenze unserer Augen schon bei weniger Pixel/fps erreicht) zusammen mit entsprechendem Sound problemlos zu übertragen, dann sehe ich keine großen Steigerungsmöglichkeiten mehr. Natürlich kann man dazu noch Geruchs-, Tast-, Temperatur- und andere Informationen übertragen, aber ab einer gewissen Datenrate werden einfach die menschlichen Sinnesorgane zum limitierenden Faktor, und wenn man sich anschaut, wie schnell man bereits heute mit "billigen" Glasfaserleitungen (das Teuerste sind bei sowas meistens die Verlegekosten) Daten übertragen kann (1 Terabit/s pro Faser auf 10km Länge wird nichtmehr lange dauern, seit einigen Zeit sind wir da schon bei 10Gbit/s) und wenn sich das in Zukunft wie bisher weiterentwickeln wird, dann mach ich mir über die Internetbandbreite eigentlich keine großen Sorgen.

Dass wir bis heute mit so grauenhafter Langsamkeit im Netz unterwegs sind, liegt ja nur dadran, das die Datenübertragung bis heute über steinzeitliche Kupfer-Doppeladern stattfindet, die niemals dazu gedacht waren, mehr als ein qualitativ schlechtes Telefongespräch über mittelgroße Distanzen zu übertragen. Kein Wunder, dass man inzwischen drahtlos höhere Datenübertragungen hinbekommt. In ein paar Jahren dürften bereits einige Häuser in Großstädten mit Glasfaserkabeln bis ins Haus versorgt worden sein (wird ja bereits teilweise geplant/getestet), womit dann Übertragungsraten von mehreren Gbit/s (1 Gbit/s = knapp 50 parallele HDTV-Streams in HD-DVD-Qualität) kein Problem mehr sein werden. Zumindest für Fernseh-Übertragungen und Ähnliches müsste man dabei nichtmal die Backbone-Kapazitäten großartig ausbauen. Multicast-Technik ist ja schon seit Ewigkeiten vorhanden, und wenn man das Internet endlich mal konsequent Multicast-fähig machen würde, dann müsste man z.B. von Pro7 zu T-Com nur noch einen einzigen Stream schicken, der dann während dem Weg durch die Switch-Hierarchie bis zum Endanwender entsprechend vervielfacht würde.

Wenn man sich dazu mal die Übertragungsraten aktueller Festplatten anschaut, die im Desktopbereich so bei 0,5 Gbit/s liegen dann wäre schon heute mit entsprechendem Netzausbau (bei Leitungsneubauten statt archaischen Kupfer-Telefonkabeln konsequent auf ordentliche Glasfasern zu setzen würde keine großen Mehrkosten verursachen) genug Bandbreite machbar, um im Desktop-Bereich lokale Festplatten abzuschaffen.

drmaniac
2007-01-06, 13:53:22
Das ist genau was alle wollen.
sagt wer? Da mindesten ich :D nicht dieser Meinung bin, stimmt das also schonmal nicht.

Der gemeine User versteht schon heute nicht, warum seine lokal auf dem Arbeitsplatz PC gespeicherten Daten nicht an einem zweiten PC an den er sich anmeldet verfügbar sind.
Anwender sind von Natur auf blöd. Ja. Aber nicht SO blöd ;) Das versteht selbst der dämlichste meiner x tausend User die ich mal betreut habe.


Warten wir halt mal ab und in 10 Jahren sprechen wir im 3dcenter dann nochmal darüber :wink:

Avalox
2007-01-06, 13:57:54
sagt wer? Da mindesten ich :D nicht dieser Meinung bin, stimmt das also schonmal nicht.


Ich will solch eine Entwicklung auch nicht, es ist ja bewusst überzeichnet.
Aber Onlinespeicherung ist Vertriebblich für viele Aspekte sehr, sehr verlockend. Also wird solange gedrückt und gegängelt, bis es alle toll finden werden. In 10Jahren;)

superdash
2007-01-06, 14:23:20
1. Mitlerweile gibts ja auch 16Mbit über Kupfer. Daran liegt es also nicht wirklich. Und UMTS und Wlan bringen effektiv keine 16Mbit pro Person. Wlan müssen sich alle Teilnehmer teilen. Sobald in aktuellen drahtlosen Netzen die Nutzerzahl steigt, die viel Bandbreite beanspruchen geht das ganz schnell in die Knie. Ich kenn das von unserer Uni: Da wurde richtig viel Geld investiert und zu Stoßzeiten bekommt jeder gerade mal 300kb/s ab. Und das obwohl es dort über 100 access points gibt. Wollte man das auf einer größeren Fläche einer ganzen Stadt auf ca 1mb/s ausbauen.. ähh.. das wäre fast unbezahlbar. Und in Zukunft ist 1mb/s geradezu lächerlich.

2. Selbst wenn jeder eine Glasfaserleitung zur nächsten Vermittlungsstelle hat, so muss diese auch irgendwie mit dem Ort, an dem deine Daten gespeichert werden in Verbindung sein. D.h. Glasfaser über mehrere hundert Kilometer, wenn es gut läuft. Zur Zeit bekommt man (in Versuchen!) ca. 80GBit bei 200km hin. Das reicht dann für 800 Leute, die volle Bandbreite nutzen wollen. Wie will man da bitte eine Millionenstadt versorgen.

3. Wenn das Verbinungsproblem gelöst ist, hat das allerdings trotzdem keinen entscheidenden Vorteil gegenüber der Speicherung zu Hause: Der Speicherplatz muss von einem Hoster bereitgestellt werden. Dieser muss die Festplatten warten und die Datensicherheit garantieren. D.h. er braucht stets eine Art von Kopie aller Daten. Der Hoster muss die Räumlichkeiten bereitstellen. Im Prinzip würden dann eben alle Festplatten bei einem Filehoster ausgelagert (mit zusätzlichen Sicherungen). Das wird niemals kostenlos sein - und schon gleich nicht auf dauer günstiger als die Festplatte selbst. Die Festplatte wird in jedem Fall benötigt - und zuätzlich noch viele andere Dinge, die dem Kunden in Rechnung gestellt werden müssen.

4. Was ist der Sinn der ganzen Aktion. Wenn ich eine 100mbit (up and down) Standleitung habe ist es total unnötig meine Daten komplett auszulagern. Da holt man sich eine Netzwerkfestplatte die im Keller steht und man kann jederzeit auf seine Daten zugreifen. Ergo: Das dezentralisierte Speichern ist wesentlich günstiger und bietet keinerlei Nachteile, wenn die eigene Leitung schnell genug ist.

5. Die große Bandbreite wird höchstwahrscheinlich tatsächlich für hd-streaming genutzt werden. Dagegen kann auch niemand etwas haben. Allerdings lagert deswegen noch lange niemand seine ganzen Daten ins Internet aus. Für wichtige Daten auf die man wirklich immer zugreifen möchte ist das natürlich sinnvoll. Aber soetwas gibt es ja heute schon. Man kann sich für ca 50€ einen "Rechner" bei einem Hoster mieten, der über eine 155mbit anbindung verfügt. Da bekommt man dann ordentlich viel GB. Unendtgeldlich wird das aber auch in Zukunft nicht sein.

Gruß

Superdash

P.S. Video mit 10000*10000*24bit@50fps erzeugt ca 14GByte/s unkomprimiert. Eine Kompression mit Faktor 140 würde immer noch 100MByte/s bedeuten (d.h. 800mbit). Legt man die Entwicklung seit mpeg2 in der Kompression zu Grunde, so zeigt sich eine exponentiell abfallende Kurve bei den Kompressionsraten. Ergo: In absehbarer Zeit ist solch ein Stream nicht zu verwiklichen.

[](-__-)[]
2007-01-06, 15:02:50
Muß auch mal meinen Senf dazugeben. Mir ist die Technik ziemlich wurscht. Ich wünschte mir ne Platte die Gothic 3 in 5 Sekunden lädt. Sowas fehlt einfach bei den immer komplexeren Spielewelten. Wenn sowas im Regal stehtr wird sofort gekauft. Selbst wenn so eine Platte nur 24 oder 32GByte hat.


Dann machs doch.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=341888

Dieses Jahr kommen warscheinlich noch 66 GB.

Gast
2007-01-06, 16:53:15
Muß auch mal meinen Senf dazugeben. Mir ist die Technik ziemlich wurscht. Ich wünschte mir ne Platte die Gothic 3 in 5 Sekunden lädt. Sowas fehlt einfach bei den immer komplexeren Spielewelten. Wenn sowas im Regal stehtr wird sofort gekauft. Selbst wenn so eine Platte nur 24 oder 32GByte hat.

Ob du mit ner schnelleren Festplatte Gothic 3 zum schnelleren Laden bewegst ist fraglich. Afair haben schon mehrere User mal probeweise Gothic 3 und die Auslagerungsdatei auf i-ram installiert. Ladezeiten haben sich nicht wesentlich verkürzt. Da scheint dann was anderes zu limitieren, vielleicht die CPU.

DjNorad
2007-01-07, 14:58:28
Öhm nur mal zur Information aller hier :-)

Es geht um 300 TeraBIT nicht TeraBYTE ^^

--> Das macht dann in etwa 37,5 Terabyte und nicht 300 ... leider ...


Zitat: "On a standard 3.5-inch drive, that's equivalent to 300 terabits of information, enough to hold the uncompressed contents of the Library of Congress."

Quelle: Wired.com (http://www.wired.com/news/technology/0,72387-0.html) oder Computerbase.de (http://www.computerbase.de/news/hardware/laufwerke/massenspeicher/2007/januar/seagate_38_terabyte_hdd_2010/)

Gruß

Gast
2007-01-07, 17:48:51
1. Mitlerweile gibts ja auch 16Mbit über Kupfer. Daran liegt es also nicht wirklich. Und UMTS und Wlan bringen effektiv keine 16Mbit pro Person. Wlan müssen sich alle Teilnehmer teilen. Sobald in aktuellen drahtlosen Netzen die Nutzerzahl steigt, die viel Bandbreite beanspruchen geht das ganz schnell in die Knie. Ich kenn das von unserer Uni: Da wurde richtig viel Geld investiert und zu Stoßzeiten bekommt jeder gerade mal 300kb/s ab. Und das obwohl es dort über 100 access points gibt. Wollte man das auf einer größeren Fläche einer ganzen Stadt auf ca 1mb/s ausbauen.. ähh.. das wäre fast unbezahlbar. Und in Zukunft ist 1mb/s geradezu lächerlich.
1 Accespoint für alle mit 1 Kupferkabel pro Person zu vergleichen ist leicht unfair. Vorallem weil selbst ein WLAN-Acces-Point pro Person billiger ist, als für jeden Einzelnen eine unterirdische Kupferleitung zu verlegen. Außerdem ist WLAN nicht für große Flächen gedacht. Dafür gibts z.B. WiMAX. Und mit dem Vergleich drahtlos<->Telefonleitung wollte ich ja auch nur zeigen, wie schwachsinnig es langfristig gesehen ist, Daten über uralte Telefonkabel zu übertragen, die nie für solche Anwendungen gedacht waren.

2. Selbst wenn jeder eine Glasfaserleitung zur nächsten Vermittlungsstelle hat, so muss diese auch irgendwie mit dem Ort, an dem deine Daten gespeichert werden in Verbindung sein. D.h. Glasfaser über mehrere hundert Kilometer, wenn es gut läuft. Zur Zeit bekommt man (in Versuchen!) ca. 80GBit bei 200km hin. Das reicht dann für 800 Leute, die volle Bandbreite nutzen wollen. Wie will man da bitte eine Millionenstadt versorgen.
Mehrere Adern bündeln? Schon heute wird fast das gesamte Datenübertragungsvolumen der Menschheit über einige wenige Unterwasser-Glasfaserkabel übertragen. Von Europa nach Amerika sind das AFAIK weniger als 5 Kabel. Trotzdem werden da problemlos Terabyte-weise Daten hin- und herbewegt.

3. Wenn das Verbinungsproblem gelöst ist, hat das allerdings trotzdem keinen entscheidenden Vorteil gegenüber der Speicherung zu Hause: Der Speicherplatz muss von einem Hoster bereitgestellt werden. Dieser muss die Festplatten warten und die Datensicherheit garantieren. D.h. er braucht stets eine Art von Kopie aller Daten. Der Hoster muss die Räumlichkeiten bereitstellen. Im Prinzip würden dann eben alle Festplatten bei einem Filehoster ausgelagert (mit zusätzlichen Sicherungen). Das wird niemals kostenlos sein - und schon gleich nicht auf dauer günstiger als die Festplatte selbst. Die Festplatte wird in jedem Fall benötigt - und zuätzlich noch viele andere Dinge, die dem Kunden in Rechnung gestellt werden müssen.

4. Was ist der Sinn der ganzen Aktion. Wenn ich eine 100mbit (up and down) Standleitung habe ist es total unnötig meine Daten komplett auszulagern. Da holt man sich eine Netzwerkfestplatte die im Keller steht und man kann jederzeit auf seine Daten zugreifen. Ergo: Das dezentralisierte Speichern ist wesentlich günstiger und bietet keinerlei Nachteile, wenn die eigene Leitung schnell genug ist.
Ich weiß ja nicht, wie das bei dir ist, aber ich wer schwer enttäuscht, wenn ich in ein paar Jahrzehnten immer noch nicht von fast jedem Ort der Welt aus über ALLE meine Daten verfügen kann.

Und was das abgesehen davon bringt? Überleg doch mal, wie die Daten auf deinem PC derzeit zum größten Teil zusammengesetzt sind? Wahrscheinlich fast nur aus Software, Musik und Videos. Anstatt also zukünftig jeden Film (bzw. jedes Lied) millionenfach redundant lokal zu speichern, bräuchte man ihn in Zukunft nurnoch einige wenige Male an zentralen Internetknotenpunkten verteilen und der Konsument würde die Daten einfach zu sich nach Hause streamen. Genauso bei Software: Schon heute ist es ja z.B. möglich, komplette Office-Anwendungen auszuführen, ohne dass sie auf dem lokalen PC gespeichert sind (Google Docs & Spreadsheets, ...). Was dann noch übrig bleibt, sind heute auf den meisten PCs noch ein paar MB an individuellen Daten (Konfigurationsdateien, Emails, Dokumente, selbstgemachte Bilder, bei Spielen die Speicherstände, ...) und das sind eigentlich gerade die Dinge, von denen man eh von überall aus drauf zugreifen möchte und die schon heute teilweise nicht mehr lokal gespeichert werden (v.a. Emails).

P.S. Video mit 10000*10000*24bit@50fps erzeugt ca 14GByte/s unkomprimiert. Eine Kompression mit Faktor 140 würde immer noch 100MByte/s bedeuten (d.h. 800mbit). Legt man die Entwicklung seit mpeg2 in der Kompression zu Grunde, so zeigt sich eine exponentiell abfallende Kurve bei den Kompressionsraten. Ergo: In absehbarer Zeit ist solch ein Stream nicht zu verwiklichen.
Und? Selbst wenn es nur 10-fach komprimiert wäre: 1,4 GB/s = 11,2 Gbit/s. Im Heimbereich dürfte in guten 5 Jahren 10Gbit-Ethernet die Verbreitung erlangt haben, die heute 1Gbit-Ethernet besitzt, was heißt, dass ein Switch vielleicht noch 10€ pro Port und eine Netzwerkkarte (wenn nicht eh onboard) ähnlich wenig kosten wird. Wenn wir aus den 10000 Pixeln jetzt z.B. 8000 machen, wäre er nach der Rechnung schon über ein 10Gbit-Ethernet-Netzwerk übertragbar und damit von der Übertragungsrate her problemlos selbst im Heimbereich (natürlich erst in 5 Jahren) realisierbar. Was dann noch fehlt, wäre natürlich ein entsprechendes Speichermedium u.s.w., aber das dürfte bis dahin (irgendwann kommt ja der ganze Hologramm-Speicherungs-Kram auf uns zu) auch kein so großes Problem mehr darstellen.

Eigentlich muss man sich nur mal anschauen, in welchen Dimensionen wir vor 15-20 Jahren noch gedacht haben. Damals was Audio-Streaming übers Internet selbst für Großunternehmen noch völlig undenkbar, heute ist HD-Streaming übers Internet teilweise schon Realität (im Heimbereich!). Was wird dann wohl in weiteren 15-20 Jahren möglich sein? (Man denke nur an die Quantenphysik: Irgendwann werden wir Informationen wahrscheinlich nur noch verzögerungsfrei von überall aus hin- und herbeamen, über Kabel wird man nur noch fassungslos den Kopf schütteln.)

superdash
2007-01-11, 20:14:28
1 Accespoint für alle mit 1 Kupferkabel pro Person zu vergleichen ist leicht unfair. Vorallem weil selbst ein WLAN-Acces-Point pro Person billiger ist, als für jeden Einzelnen eine unterirdische Kupferleitung zu verlegen. Außerdem ist WLAN nicht für große Flächen gedacht. Dafür gibts z.B. WiMAX. Und mit dem Vergleich drahtlos<->Telefonleitung wollte ich ja auch nur zeigen, wie schwachsinnig es langfristig gesehen ist, Daten über uralte Telefonkabel zu übertragen, die nie für solche Anwendungen gedacht waren.

Der Punkt ist aber: Die Kabel sind schon vorhanden. Die gibts Quasi um sonst. Zusätzlich kann ich nur eines sagen: Wireless wird dem kabel immer hinterher hinken. Vor allem mit Glasfaser wird Wireless nie mithalten können.

Zusätzlich gibts bei kabelloser Kommunikation auch haufenweise physikalische Probleme (Studier Physik und du weißt, wovon ich rede). Strahlung ist zusätzlich auch ein gesundheitliches Problem das nicht zu Verachten ist. Es gibt heute keine Langzeitstudien (>25yr) über Strahlung in den heute verwendeten Frequenzbereichen.



Mehrere Adern bündeln? Schon heute wird fast das gesamte Datenübertragungsvolumen der Menschheit über einige wenige Unterwasser-Glasfaserkabel übertragen. Von Europa nach Amerika sind das AFAIK weniger als 5 Kabel. Trotzdem werden da problemlos Terabyte-weise Daten hin- und herbewegt.

Soweit ichs im Kopf hab sinds momentan 280GBit von Europa nach Amerika. Das ist nicht sonderlich viel für die Zukunft. Leider weist Glasfaser auch physikalische Grenzen auf in Bezug auf die Anzahl der Sendbaren Pulse. Über längere Strecken ist das sowieso schon problematisch, da man die Impulse nicht beliebig schnell durchschicken kann. Je länger die Leitung desto mehr Abstand wird benötigt zwischen den einzelnen impulsen. Auch hier gibt es physikalische Grenzen, wenn man nicht alle 100km einen transceiver aufstellen will.



Ich weiß ja nicht, wie das bei dir ist, aber ich wer schwer enttäuscht, wenn ich in ein paar Jahrzehnten immer noch nicht von fast jedem Ort der Welt aus über ALLE meine Daten verfügen kann.
OK. Wenn aber jeder eine dicke 1GBit Leitung hat dann kann man doch von Überall aus auf alle seine Daten zu Hause zugreifen. Zentrales Speichern aller Daten würde Bedeuten dass einige wenige Stellen des Internets so dicke Leitungen benötigen, wie hundertausende andere Zusammen. Das wird nicht klappen.
Und was das abgesehen davon bringt? Überleg doch mal, wie die Daten auf deinem PC derzeit zum größten Teil zusammengesetzt sind? Wahrscheinlich fast nur aus Software, Musik und Videos. Anstatt also zukünftig jeden Film (bzw. jedes Lied) millionenfach redundant lokal zu speichern, bräuchte man ihn in Zukunft nurnoch einige wenige Male an zentralen Internetknotenpunkten verteilen und der Konsument würde die Daten einfach zu sich nach Hause streamen. Genauso bei Software: Schon heute ist es ja z.B. möglich, komplette Office-Anwendungen auszuführen, ohne dass sie auf dem lokalen PC gespeichert sind (Google Docs & Spreadsheets, ...). Was dann noch übrig bleibt, sind heute auf den meisten PCs noch ein paar MB an individuellen Daten (Konfigurationsdateien, Emails, Dokumente, selbstgemachte Bilder, bei Spielen die Speicherstände, ...) und das sind eigentlich gerade die Dinge, von denen man eh von überall aus drauf zugreifen möchte und die schon heute teilweise nicht mehr lokal gespeichert werden (v.a. Emails).

Das wäre eine traurige Entwicklung. Ich will persönlich meine Daten ablegen. Und es mir nicht mit dem Rest der Welt teilen müssen. Die zusätzlichen Konsequenzen wären, dass ich jedesmal, wenn ich die gleiche mp3 anhöre dafür zahlen muss. Das wäre wohl der Traum der Medienindustrie. Aber eine Horrorvorstellung für die privaten Nutzer. Zusätzlich möchte ich nicht meine ganzen privaten Daten im Internet haben.

Und? Selbst wenn es nur 10-fach komprimiert wäre: 1,4 GB/s = 11,2 Gbit/s. Im Heimbereich dürfte in guten 5 Jahren 10Gbit-Ethernet die Verbreitung erlangt haben, die heute 1Gbit-Ethernet besitzt, was heißt, dass ein Switch vielleicht noch 10€ pro Port und eine Netzwerkkarte (wenn nicht eh onboard) ähnlich wenig kosten wird. Wenn wir aus den 10000 Pixeln jetzt z.B. 8000 machen, wäre er nach der Rechnung schon über ein 10Gbit-Ethernet-Netzwerk übertragbar und damit von der Übertragungsrate her problemlos selbst im Heimbereich (natürlich erst in 5 Jahren) realisierbar. Was dann noch fehlt, wäre natürlich ein entsprechendes Speichermedium u.s.w., aber das dürfte bis dahin (irgendwann kommt ja der ganze Hologramm-Speicherungs-Kram auf uns zu) auch kein so großes Problem mehr darstellen.

Man merkt echt, dass du nicht in Entwicklung und Forschung tätig bist. Wir können froh sein, wenn sich bis in 10Jahren Fernsehen mit 1080p durchgesetzt hat. Ich gehe davon aus, dass hd Material bis in ca. 10 Jahren eine Verbreitung von 80% hat. Mehr kannst du nicht erwarten.

Und jetzt zum Schluss ein Totschlagargument für deine Zukunftsvision (ich bin gespannt auf die Gegenargumente): Zwar verweise ich nicht gern auf tomshardware, allerdings ist es an dieser Stelle angebracht. Schau mal auf: http://business.thgweb.de/2006/12/15/kapazitaet_schlaegt_leistung/index.html
Unter zu Grunde Legung der Festplattenentwicklung wird es kaum möglich sein, eine große Menge an Menschen zentral mit Daten zu versorgen. Ein Server muss schließlich seine Bandbreite auch zur Verfügung stellen. Es ist sehr unwahrscheinlich, dass Festplatten in den nächsten 10 Jahren abgelöst werden. Wie soll ein Server dann die Bandbreite bereitstellen? Oder willst du für jeden User einen eigenen Server aufstellen. Das ist aber total sinnfrei, da sich dann auch jeder selbst einen in den Keller stellen kann. Also zentrale Speicherung aller Daten im Internet erachte ich als höchst unwahrscheinlich. Es wird sich eher in die Gegenrichtung entwickeln.

Eigentlich muss man sich nur mal anschauen, in welchen Dimensionen wir vor 15-20 Jahren noch gedacht haben. Damals was Audio-Streaming übers Internet selbst für Großunternehmen noch völlig undenkbar, heute ist HD-Streaming übers Internet teilweise schon Realität (im Heimbereich!). Was wird dann wohl in weiteren 15-20 Jahren möglich sein? (Man denke nur an die Quantenphysik: Irgendwann werden wir Informationen wahrscheinlich nur noch verzögerungsfrei von überall aus hin- und herbeamen, über Kabel wird man nur noch fassungslos den Kopf schütteln.)
Ähm.. ja. Damit hast du dich leider disqualifiziert.

Gruß

Superdash

P.S. Rechtschreibfehler bitte überlesen.. hab grad keien Zeit fürs Korrekturlesen.
P.P.S. Ich habe mal technische Sprünge weggelassen und nur die Entwicklung der letzten 10 Jahre meinen Überlegungen zu Grunde gelegt. Über mehr als 10 Jahre in die Zukunft wage ich nicht zu Blicken. Bis dahin könnten uns auch Kriege hinweggerafft haben, was wesentlich wahrscheinlicher ist, als ein Über-Internet.
P.P.P.S. Noch was zum Denken für die ausdauernden Leser: Kurz nach den Mondlandungen dachten viele Menschen auch, dass man bis zum Jahr 2000 mal kurz zum Mond fliegen könnte und träumten von einer schillernden Zukunft. Was heute Realität ist, wissen wir alle.