JC
AdministratorDisruptor
|
Bislang hat Corsair im SSD-Bereich nur die im Jänner vorgestellte S128 mit 128 GB im Angebot. Der Hersteller wird jedoch bald mit einer schnelleren Variante namens P256 nachbessern und gleichzeitig die Kapazität verdoppeln. » Beitrag lesen
|
maniacnew
OC Addicted
|
boah freu mich schon so wenn die Dinger in 1-2 Jahren mal leistbar werden und ws. werden sie bis dahin noch schneller werden ... aber so ists halt nur nett zu lesen
|
FearEffect
Here to stay
|
nette Daten, jedoch völlig unintressant solang die Preise _SO_ bleiben. ich bezahl doch ned 750€ (weil ja $ -> € 1:1 ), wenn ich um das geld nen kompletten PC bekomm.
|
Turrican
LegendAmiga500-Fan
|
derzeit zielen diese ssds nur auf high high high-end freaks ab. aber je mehr produkte auf den markt kommen, desto mehr konkurrenz ensteht->billiger
|
GNU
Friedensbringer
|
derzeit zielen diese ssds nur auf high high high-end freaks ab. aber je mehr produkte auf den markt kommen, desto mehr konkurrenz ensteht->billiger Das wird noch seine Zeit haben aber Intels SSD sind ja eh nicht mehr so teuer. MFG
|
Dreamforcer
New world Order
|
naja aber die p/l ist doch um welten besser als bei den intel x-e serien, der speed bei 256gb ist ganz interessant
|
davebastard
Vinyl-Sammler
|
schön langsam könntens mal billiger werden. Wie lang wart ma jetzt schon dass die preise fallen?
|
BooTes
Octocat!
|
sind doch eh scho deutlich gefallen.. ich kann mich da noch an €2000 für 64GB und geschwindigkeiten von 150mb/s lesen bzw. schreiben erinnern..
|
smashIt
master of disaster
|
ich rat einfach mal: ne umgelabelte samsung pb22-j
|
davebastard
Vinyl-Sammler
|
sind doch eh scho deutlich gefallen.. ich kann mich da noch an €2000 für 64GB und geschwindigkeiten von 150mb/s lesen bzw. schreiben erinnern.. ja gut, trotzdem ist es noch ein high-end produkt. wird langsam zeit dass es auch für den mid-range bereich interessant wird.
|
><))))°>
Idle ...
|
Ja, wow, sequenzielles Lesen, von Anfang bis Ende. Das ist ungefähr so aussagekräftig wie ein Datenblatt. Mich würd mal interessieren wie die SSD auf 100% random Zugriffe reagiert (was eher den realen Arbeitsbedingungen entspricht). Wenn die Leistung in HDTach schon bei sequenziellem Lesen immer wieder einbricht, will ich mir garnicht vorstellen, wie das bei zufälligen Zugriffen ausssieht. Da trennt sich nämlich die Spreu vom Weizen
|
Viper780
Er ist tot, Jim!
|
Ja, wow, sequenzielles Lesen, von Anfang bis Ende. Das ist ungefähr so aussagekräftig wie ein Datenblatt. Mich würd mal interessieren wie die SSD auf 100% random Zugriffe reagiert (was eher den realen Arbeitsbedingungen entspricht). Wenn die Leistung in HDTach schon bei sequenziellem Lesen immer wieder einbricht, will ich mir garnicht vorstellen, wie das bei zufälligen Zugriffen ausssieht. Da trennt sich nämlich die Spreu vom Weizen naja das stimmt auch nicht, Daten liegen ja meist doch hintereinander vor und belegen mehrere cluster.
|
><))))°>
Idle ...
|
Glaubst du im Ernst dass alle Daten die zb für Programmstarts, und den Windowsstart benötigt werden, hintereinander auf der Platte liegen? Nichteinmal bei grösseren Dateien ist es sicher, dass diese in einem Stück von Anfang bis Ende abgespeichert sind. Dafür wurde ja auch das Defragmentieren erfunden.
In keinem Fall wirst du aber doch hoffentlich abstreiten dass Sequentielles Lesen und Schreiben, im Alltag die Ausnahme ist!?
|
Viper780
Er ist tot, Jim!
|
nein um das gehts ja gar nicht und natürlich muss alle paar Byte bis Megabyte gesprungen werden. Aber so das es 100% statistisch ist, is es auch nicht und vorallem da man defragmentieren kann ists meines erachtens nicht so wild wie ihr tut.
|
><))))°>
Idle ...
|
Also ich weiß nicht wies bei dir ist, aber Defragmentieren hat bei mir (auch nach mehreren Durchgängen) keine vollständig defragmentierte Festplatte zur Folge. Vor allem wenn diese schon sehr voll ist, ist das auch fast unmöglich. Abgesehen davon setzt das Defragmentieren auch nur Dateien "zusammen" - es ordnet diese aber nicht so an, dass sie in jedem Fall immer hintereinander gelesen werden können. Da verscheidene Programme die selben Dateien auch nicht immer in der gleichen Reihenfolge lesen ist das auch unmöglich. Selbst wenn man zugesteht dass nur 85-90% der Lesevorgänge komplett zufällig sind, reicht das aus um die Benchmarkergebnisse von sequentiellen Lesevorgängen nicht aussagekräftig nennen zu können. Übrigens sage ich das obwohl mein RAID eine sequentielle Leseleistung von 400MB/s zusammenbringt. Bei zufälligen Zugriffen komm ich trotzdem nur auf 80-100MB/s. Je kleiner der gelesene Block wird, um so niedriger wird dieser Wert. Nur damit ihr euch mal ein Bild machen könnt, hier der (nicht mehr ganz aktuelle) Test von Anandtech dazu: http://www.anandtech.com/storage/sh...i=3531&p=25Arguably much more important to any PC user than sequential read/write performance is random access performance. It's not often that you're writing large files sequentially to your disk, but you do encounter tons of small file reads/writes as you use your PC.
To measure random read/write performance I created an iometer script that peppered the drive with random requests, with an IO queue depth of 3 (to add some multitasking spice to the test). The write test was performed over an 8GB range on the drive, while the read test was performed across the whole drive. I ran the test for 3 minutes. Die Velociraptor schafft unter diesen Bedingungen ~1MB/s während die langsamste SSD 16,2 MB/s erreicht.
Bearbeitet von ><))))°> am 16.04.2009, 15:55
|