ext4 Filesystem und weiter?

Man nehme ext2, bohre es auf mit einem Journal1 und nenne es danach ext3. Mit den Jahren bemerkt man das dieses zwar recht stabil ist und in letzter Instanz das einzige wirklich verläßliche/gepflegte Filesystem innerhalb Linux ist, aber auch gewisse Engpässe bezüglich der Zukunft aufweist. Bohrt man also weiter und entschließt sich dieses Tuning abermals als neues Filesystem zu verkaufen: ext4. Nun ext4 hatte eine relativ kurze Entwicklung inne2, laut Theodore Ts’o kann man gar auf das Developer-Attribut verzichten und einsetzen tut er dieses neue Filesystem unlängst auf seinem heimischen Laptop — na dann. Das ist nun alles arg verkürzt dargestellt, ist jedoch ausreichend um die prinzipielle Vorgehensweise zu verdeutlichen.

Grundsätzlich nutze ich innerhalb Linux ext3, gar mit vollem Journal da dies ein deutliches Plus an Qualität bietet und kaum wirklich Geschwindigkeitseinbußen wie oftmals vermutet. Experimente mit ReiserFS, XFS und auch JFS stellten sich im Fall der Fälle nie wirklich als effektiv heraus, Stromausfälle usw. überstand ein ext3 im Mittel durchaus besser als die zuvor genannten. Von Servern ganz zu schweigen dort gelten ohnehin völlig andere Maßstäbe — ext3 ist dennoch in der Regel das Filesystem der Wahl. Womöglich ob Ermangelung eines besseren? Wer weiß — Gedanken machte man sich jedenfalls auch innerhalb Linux, sonst wäre ext4 nicht initiiert worden.

Natürlich hören sich die Neuigkeiten bei ext4 allesamt nicht schlecht an, andererseits sind es jedoch hauptsächlich Mittel zum Zweck, um Unzulänglichkeiten von ext3 zukünftig zu umgehen. Warum aber integrierte bzw. pflegte man nicht XFS bzw. JFS adäquater? Fehlte die Muße weil es keine eigene Errungenschaft war, sondern nur ein Geschenk? Sicherlich ich kenne die Geschichten um den hochkomplexen Code eines XFS, aber der Kernel selbst und viele seiner Bestandteile kommen auch nicht übersichtlicher daher, wie schon von Morton et. al. häufiger bestätigt. Also doch nur Ego? Zumindest auch Notwendigkeit und wenn man die wiedersprüchlichen Aussagen der Linux Foundation bezüglich Suns ZFS betrachtet verstärkt sich dieser Eindruck — teils einfach nur gewirkte Politik.

Horden von willigen Anwendern werden natürlich mit dem Advent von ext4 — in abgesegneter Form — womöglich mit Kernel 2.6.28 aufspringen. Teils werden dies auch die großen Hype-Distros unterjubeln, denn neu macht sich immer gut. Insgesamt dürfte man so recht schnell massive Tests erwirken, die bis dato noch fehlen und das neue Filesystem zumindest für qualitätsbewußte Bereiche noch lange Zeit außen vor lassen werden. Der reguläre Anwender tut gut daran bei ext3 zu verbleiben — ich wäre froh Torvalds würde wie früher zweierlei Schienen beim Kernel fahren.

  1. Stephen Tweedie []
  2. lose seit 2006 []

,

9 Antworten zu “ext4 Filesystem und weiter?”

  1. mr_spuck sagt:

    Bezüglich Stromausfällen oder sonstigen irgendwie gearteten Abstürzen ist die Stabilität von ext3 wirklich unübertroffen. Ich nutze hier schon seit ein paar Jahren JFS welches mit derlei Dingen auch recht gut klar kommt, zumindest hat es mir noch keinen Totalverlust meiner Verzeichnisstruktur beschert wie es bei ReiserFS quasi die Regel ist.

  2. Joerg M. sagt:

    Das ext4 nicht sehr lange in der Entwicklung gebraucht hat, ist ja auch der Tatsache geschuldet, das es sich dabei nur um eine sehr vorsichtige Erweiterung handelt und an vielen Stellen einfach nur halbe Schritte gegangen worden sind .. wahrscheinlich aus Angst, die Kompatibilität zu verlieren.

    Mit checksummen geschützte Journals sind zwar nett, aber loest nur eine sehr kleine Teilmenge der Probleme, die man mit Checksummen loesen koennte.

    Die Liste der Features sieht mir eher nach ext3.1, ob ext4 den Sprung in der Majornummer verdient hat … naja … da moege sich die Linuxcommunity drum streiten.

    Fuer ext5 (das dann ein eigentlich den Namen ext4 verdienen wuerde) wuerde ich mir vollständigen Schutz mit Checksummen wuenschen, optional aktivierbares CopyOnWrite, darauf basierende Checksummen und noch einige andere Dinge …

  3. blub sagt:

    Der 0-Größe-Bug von XFS nach einem Stromausfall ist schon seit einer Weile gefixt. Sonst hast du natürlich recht. Die Codebasis von XFS ist enorm und es existieren auch einige Wrapper, weil der Code Jahrelang unter Linux UND IRIX laufen musste.

    Eine Eigenentwicklung ist aber fast immer besser als eine Portierung. Das sieht man ja auch mit ZFS und FreeBSD (kmem size usw..).

    Warum setzen die beiden großen «enterprise» Distros auf ext3? — Sie haben Leute eingestellt, die sich damit auskennen, so einfach ist das :-)

    Ich werde mir ext4 demnächst mal genauer anschauen. Vernünftige Admins haben so oder so ein Backup, was einen möglichen Totalausfall nicht ganz so schlimm macht :-)

  4. Oliver sagt:

    >Vernünftige Admins haben so oder so ein Backup, was einen möglichen Totalausfall nicht ganz so schlimm macht

    Was jedoch nur in mittelständischen Klitschen von Bedeutung ist bezogen auf den nicht so schlimmen Ausfall.

  5. Joerg M. sagt:

    Hmm … warum glaubt eigentlich jeder das Backups die Lösung für Instabilitäten ist … Backups sind nie minutenaktuell, es geht meistens ein grosser Teil des Tages verloren, es dauert bis recovert ist und die Recoveryprozeduren sind so gut wie nie getestet … bei ZFS gab es eine lange Zeit des eat-your-own-dogfood auf internen Produktionssystemen.

    Am Ende steht dann entweder der Abteilungsleiter oder der Chef-vom-janzen vor dem Schreibtisch und wird laut … ich seh da keinen Unterschied …

  6. klti sagt:

    Stimmt, Backups sind in der Regel aus der letzten Nacht, und je größer das System desto mehr passiert da auch an einem Tag. Backups sind notwendig, aber schöner ist es wenn man sie nicht braucht. ;-)

    Ich bin eigentlich durchaus ein Freund von XFS, allerdings hat der Debian-Standard-Kernel (2.6.18) ein paar wirklich üble Bugs im XFS. Uns sind auf Dual-Quad-Core-Maschinen unter starker Last (rsync großer Dateimengen von einem Ordner in einem XFS-Dateisystem auf einen anderen Ordner im gleichen XFS) regelmäßig die mounts rausgeflogen wegen Corruption. So richtig mit xfs_repair und Datenverlust. Unschön.

  7. Oliver sagt:

    Das mit rsync scheint der Trigger für Filesystem-Bugs zu sein, ich erinnere mich da dunkel an die ersten Inkarnationen von ZFS unter FreeBSD 7.

  8. Lord_Pinhead sagt:

    Ein Totalausfall ist dank Backup nicht schlimm?
    Wenn eine Produktionsmaschine auf denen die Roboterprogramme liegen ausfällt, die komplette Produktion stoppt, und das Backup aufspielen einige Zeit dauert, dann denkt man sich nur:
    «Wäre ich doch bei ext3 geblieben»

    XFS nutze ich auf meiner Heimkiste (ebenfalls Debian) schon ewig und da ich mich nicht auf die Distributionskernel verlasse sind mir die XFS Fehler im Debian Kernel egal. Einzig das XFS nicht on-the-fly verkleinert werden kann nervt mich, aber da hatte ich schon 200 GB an Daten raufgeschoben. Noch witziger wird es wenn man ins LVM eine weitere Platte hängt und via growfs zusieht wie seine Daten flöten gehen. Ein glück das man vorher ein Backup gemacht hat.

    ext3 und kein Datenverlust. Auch dieser Mythos ist klasse. Als ich bei meinem Laptop den Akku kalibriert habe, also den Akku bis zur völligen Erschöpfung ausgelutscht habe mit Youtube :D, habe ich zugesehen wie mein Debian System wieder mit Netzstrom booten wollte, einen fsck durchführte, und alle Daten aus /etc vernichtete, jetzt lagen hunderte von Dateien in lost&found. Also soviel zu «ext3 ist unzerstörbar», alles kann vernichtet werden ;)

  9. Oliver sagt:

    >Also soviel zu “ext3 ist unzerstörbar”

    Ich finde diese Aussage nirgends, «im Mittel» bedeutet auch selbiges und propagiert keinesfalls ein Überfilesystem.


RSS-Feed abonnieren