1. Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst Du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen
    Information ausblenden
  2. Willkommen im Forum von DIGITAL FERNSEHEN - dem führenden Portal für digitales Fernsehen, Medien und Entertainment. Wenn du hier neu bist, schau dich ruhig etwas um und melde dich an, um am Forengeschehen teilnehmen zu können.
    Information ausblenden

USB-Festplatte 2,5 Zoll mit SMR und 4Kn-Sektoren gesucht.

Dieses Thema im Forum "Computer & Co." wurde erstellt von Pickwick, 20. Mai 2021.

  1. simonsagt

    simonsagt Board Ikone

    Registriert seit:
    11. April 2014
    Beiträge:
    3.563
    Zustimmungen:
    1.410
    Punkte für Erfolge:
    163
    Anzeige
    Genau so hatte ich das verstanden.

    Eine Shingle ist ein bisschen wie so eine optische Scheibe, wo man hinten dran was dazu brennt. Sprich sequentiell sollte da kaum ein Unterschied zu einer herkömlichen Platte sein. Bei Random Writes sieht es anders aus, oder wenn man dem Controller nicht die Zeit gibt, die Shingles zu ... defragmentieren könnte man fast sagen.

    Oder hab ich da einen Denkfehler?

    Ich hab mir erst neue Platten gekauft und da kam eine Shingle nicht in Frage, weil da unter anderem auch (sehr große) Backups draufkommen. Das waren aber 3,5er und ich hab auf eine höhere mtbf gekuckt unter den Kandidaten in der näheren Auswahl.

    Immer noch massig genug für manch 2,5er-lein. Was ich aber bei mir z.B. hatte, da steckte nicht jede der Platten an einem usb3 tauglichen Port, welcher auch mit der entsprechenden Geschwindikeit angsprochen wurde. War mir aufgefallen, weil die neue Platte in einem externen Gehäuse zu langsam war. Bei den 2,5er wäre es mir nicht aufgefallen. Die sind nicht schneller, wenn ich sie korrekt an usb3 anhänge. Die neue 3,5er Platte hingegen ist über usb3 genausoschnell wie über sata.

    Von dem was ich drüber überflogen hatte und wegen des Threads nochmal, sollte das nicht sein. Auch verstehe ich immer noch nicht, was das mit den 512 oder 4k zu tun haben soll? Das ist doch Jacke wie Hose, wenn man mehrere Megabyte sequentiell schreibt. Wenn der Controller so schlecht ist, dass er bei buchstäblich tausenden Blöcken die nacheinander geschrieben werden soll, irgendwie spürbar an Performance einbüsst, nur weil die logische Blockgröße von der nativen abweicht, dann läuft doch was grundfalsch.

    Bei meinem Backupprozess hab ich einige Fallstricke überwunden, die ich so vorher nicht auf dem Schirm hatte. Komprimierung ist theoretisch gut, würde vielleicht sogar 10% bringen, praktisch aber sinkt die Datenrate auf etwa 1/10 laut Taskmanager. Und meine CPU ist fett und mein Hauptspeicher noch fetter. Das Backupprogramm kann entweder auf Filebasis oder auf Diskbasis. Und wenn ich das auf Diskbasis mache, ist das zwar für Inkrementielle Backups besser, aber falls sich kaum was geändert hat, dauert das Backup trotzdem eine gefühlte Ewigkeit. Bei der zigfachen Datenmenge auf nem langsameren Datenträger mit Filebasis dauert das Prüfen auf Veränderungen wenige Minuten. Klar, muss ja nur die Fileallocationtabelle einlesen.

    :cautious: . Sagen wir so. Ich weiss überhaupt nur, dass es sowas wie cmr und smr gibt, weil beim Kauf meiner 16TB bei den ganzen Modellen überall prahlend dabei stand, dass es sich um cmr handelt.

    Wenn die Teile wirklich so wären, wie du sie beschreibst, wären sie nicht alltagstauglich. Sowas werfen private und gewerbliche Käufer dem Händler dann nur wieder vor die Füße und es fliegt aus den Produktpaletten. Ich geh stark davon aus, dass da irgend ein anderer Seiteneffekt am Start ist. Oder hast du diesen Performanceeinbruch auch bei anderen Situationen? Etwa wenn du von Hand ein paar Files rüberschiebst?
     
  2. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    21.177
    Zustimmungen:
    4.923
    Punkte für Erfolge:
    213
    4kn-HDD gab es ursprüglich nur im Bereich der Server-HDD, und sind erst später in den Konsumerbereich angekommen.
    Windows unterstützt HDD mit 4kn-Sektoren erst seit Version 8.1, meines Wissens nach.


    Ok, das mag für Konsumer-Grade-HDDs gelten dass da immer mehr Modelle mit SMR auf den Markt kommen, aber für Server- und NAS-Anwendungen werden immer noch HDDs gebaut welche auf CMR setzen.
    Im Konsumerbereich wandern die HDDs ohnehin immer stärker rein in den reinen Storagebereich, sprich Backup-Speichermedien, hinein. Als System- und Arbeitsdatenträger kommen heute fast nur noch SSDs zum Einsatz.

    Interessaterweise werden für externe Festplatten mit USB-Anschluss offenbar extra HDD-Modelle gefertig welche so nicht einzeln erhältlich sind.
    So gibt es z.B. Speicherkapazitäten bei externen Platten welche nicht als interne Platte angeboten werden, z.B. 3 oder 5 TB bei 2,5 Zoll Bauform.
    Ich vermute aber ebenfalls dass diese mit SMR arbeiten.
     
    Zuletzt bearbeitet: 22. Mai 2021
  3. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    21.177
    Zustimmungen:
    4.923
    Punkte für Erfolge:
    213
    Direkt nebeneinander liegende Spuren sind das Problem bei SMR. Diese werden teilweise überschrieben und müssen dann erneut geschrieben werden.

    Die meisten HDD mit SMR haben recht üppige Caches welche Random Writes ganz gut abkönnen weil diese die Daten im RAM (des HDD-Controllers) sammeln und umsortieren können.

    Bei HDD mit SMR stellt sich die Frage welche Datenmenge in einer einzelnen Session geschrieben werden soll.
    Das ist im Prinzip die einzige Einschränkung.

    Naja, es gibt dann auch noch den USB-2-SATA-Wandler als Flaschenhals. Ich habe selber einen solchen Wandler bei dem die SATA-Schnittstelle auf 1,5 Gbit/s (150 Mbyte/s) limitiert.
    Für HDD kein bedeutendes Problem, aber wenn man eine SATA-SSD anschließt bremst der Wandler die Datenübertragung dann doch wenn die SSD über 500 Mbyte/s schafft.

    Ich auch nicht, zumal HDD mit SMR doch erst aufkamen als die Platten intern bereits mit 4k-Sektoren arbeiteten.
     
    simonsagt gefällt das.
  4. simonsagt

    simonsagt Board Ikone

    Registriert seit:
    11. April 2014
    Beiträge:
    3.563
    Zustimmungen:
    1.410
    Punkte für Erfolge:
    163
    Dann bin ich ja beruhigt.

    Als ich mit meiner Backupsoftware (Ashampoo) rumgespielt hab, wurden teilweise im 100 000 er Bereich Files erstellt. So etwa 200 000 pro TB. Da glaub ich noch eher, dass so Blockgeschichten was reißen könnten. Aber selbst da ist die Häufigste Dateigröße der kleinen Dateien 250kb und somit Größenordnungen über den 4kb. Da sind fast zwei Nullen dran. Also jeglicher Effekt der da auftreten sollte, müsste in der Größenordnung von wenigen % sein .... 1/100 halt.

    Was der verwendete Backupprozess allerdings macht, keine Ahnung. Wenn der so komische Files erstellt, wo nur Platz reserviert wird und dann drinnen hier ein Bit, da ein Bit geschrieben wird, ... wer weiß wie sich das auswirkt. Wenn dann noch das File gelockt wird, ähnlich einer Swap oder Hibernatedatei, damit der Controller auch ja keine Cachingoperationen mehr durchführen kann. (Ich fabuliere nur, aber naiv wie ich bin, ... wenn es tatsächlich mit der Performance so steht, wie beschrieben muss das irgendwo her kommen. Und eine Externe wo der User nicht seine 1000 Fotos in absehbarer Zeit rüberschieben kann, wird der User dem Händler wieder zurückgeben, ergo verkauft das doch keiner freiwillig)
     
  5. Pickwick

    Pickwick Junior Member

    Registriert seit:
    29. Juni 2003
    Beiträge:
    89
    Zustimmungen:
    1
    Punkte für Erfolge:
    18
    Guckt doch einfach in den verlinkten Wiki-Artikel, bei 512e gibt es IMMER ein Mapping auf interne 4K-Sektoren und die Frage ist nur noch, wie störend das in welchem Nutzungsszenario ist.

    1. arbeitet vernünftige Backup-Software genau so ähnlich, um wirklich nur geänderte Blöcke weg zu schreiben und möglichst effizient mit dem vorhandenen Speicher umzugehen. Voraussetzung sind Snapshots und bei Windows+NTFS+VSS heißt das noch mal etwas höhere Schreiblast.

    2. werden dabei aber eben gerade nicht nur einzelne Bits neu geschrieben, sondern aus Performancegründen komplette Blöcke. ABER: Einerseits hat man Leselast um die geänderten Blöcke zu erkennen, dann Schreiblast um die geänderten Blöcke zu schreiben, dann Schreiblast für VSS, um die geänderten Blöcke vorher zu sichern und dazu kommt dann je nach Funktionsweise der SMR-Platte deren Media Cache UND das 512e-Mapping. Irgendwann haste einfach keine Kontrolle mehr darüber, wer welche vollständigen Blöcke wann wie bearbeitet oder eben auch nicht und man kommt zwangsläufig in konkurrierende Situationen.

    Der Controller interessiert sich überhaupt nicht für Locks vom Betriebs-/Dateisystem und abgesehen davon bedeuten Locks auch nicht zwangsläufig, dass nichts gecacht wird. Das sind alles wieder ganz verschiedene Themen.

    Es gibt immer wieder Leute mit Performanceproblemen wie meine. Wenn man einmal 1000 Fotos rauf kopiert, die Platte nen Media Cache ausreichender Größe hat und man dann nur noch mit Einzeldateien rumfuhrwerkt, merkt man davon vielleicht auch tatsächlich nicht so viel. Bei Backup mit mehr I/O-Last sieht das dann eben anders aus.

    Ich bin ziemlich überrascht, wie wenig Leute hier einfach auf USB sichern und keine Zeit haben, mal eben "fsutil" auszuführen. :-/
     
  6. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    21.177
    Zustimmungen:
    4.923
    Punkte für Erfolge:
    213
    Findet denn kein Boundary-Matching zwischen den 4k-Sektoren der HDD und den NTFS-Clustern statt? Dann würde sich die 512e Emulation überhaupt nicht negativ auswirken.
    Ich meine dass Windows dies seit Version 7 nutzt.

    Der einzige Grund weshalb die 512e Emulation überhaupt existiert ist dass PCs welche mit BIOS ausgestattet sind von solchen Platten booten können, bzw. ältere Betriebssysteme mit diesem umgehen können.
    Neuere PCs mit UEFI und akt. Betriebsysteme sind im Prinzip auf die 512e Emulation nicht länger angewiesen.
     
    Zuletzt bearbeitet: 22. Mai 2021
  7. Pickwick

    Pickwick Junior Member

    Registriert seit:
    29. Juni 2003
    Beiträge:
    89
    Zustimmungen:
    1
    Punkte für Erfolge:
    18
    Und genau deswegen habe ich meine Frage und diesen Thread erstellt, weil ich mir eben nicht vorstellen kann, dass wirklich alle USB-SMR-Platten 512e nutzen. Das ist ja bei aktuellen Systemen eben nicht nötig und ich selbst habe bereits 4Kn USB-Platten, allerdings mit CMR. Es müsste ja einen Grund geben, warum SMR nur mit 512e gepaart werden würde, obwohl das Prinzip bedingt eine unnötig schlechte Kombination sein muss.
     
  8. TV_WW

    TV_WW Lexikon

    Registriert seit:
    10. Juli 2004
    Beiträge:
    21.177
    Zustimmungen:
    4.923
    Punkte für Erfolge:
    213
    Da können wir hier aber nur raten. Mit Gewissheit kann nur der Hersteller der HDD diese Info liefern.
    Oder die Platte muss (aus dem ext. Gehäuse) ausgebaut und direkt per SATA an einen PC angeschlossen werden.
    Ein USB-SATA-Wandler kann das Ergebnis beim Auslesen verfälschen.
     
  9. Gorcon

    Gorcon Kanzler Premium

    Registriert seit:
    15. Januar 2001
    Beiträge:
    156.546
    Zustimmungen:
    31.513
    Punkte für Erfolge:
    273
    Technisches Equipment:
    VU+ Uno 4K SE mit Neutrino HD + VTi
    Ich glaube nach wie vor das Problem liegt selbst im USB Anschluss selbst. Denn die gleiche Platte ist an einem Netzwerk um ein vielfaches schneller obwohl es theoretisch umgekehrt sein müsste.
     
  10. DVB-T2 HD

    DVB-T2 HD Foren-Gott

    Registriert seit:
    7. Mai 2016
    Beiträge:
    11.223
    Zustimmungen:
    4.889
    Punkte für Erfolge:
    213
    Würde ich für dich ja gerne machen, hab aber keine derartige 2,5“ USB-Disk. Und Disks mit 4TB oder mehr, die ich habe, sind entweder SAS-Disks für Server bzw. professionelle NAS-Systeme oder 3,5“ SATA-Disks für NAS-Systeme der unteren Consumer-Preisklasse.;)

    Ich würde mal eine andere Backup-Software wie z.B. Acronis testen, weil WBAdmin ist längst nicht mehr das, was mal NTbackup (eigentlich ein von Veritas zugekaufte BackupExec Version) war, und RSYNC ist nun wirklich mehr oder weniger nur ein Copier- und kein Backup-System.

    Aber genauso wichtig ist, dass der USB-Hostcontroller mit USB 3.0 typisch hohen Datenraten richtig arbeitet. Welche Computer verwendest du denn mit welchen Betriebssystemen?