Hallo zusammen,
bin neu hier und habe mir ein heftiges Problem mit Freenas v 8.2 (ZFS) eingefangen. Ich nutzte FreeNas nun seit ca. 2 Jahre und hatte bisher kaum Probleme und hatte mich daher nicht ganz soviel mit den Internas des System beschäftigt. Jetzt hatte sich eine Festplatte in einem der ZFS-Pools verabschiedet und nach einem Rettungsversuch hat sich der Pool komplett verabschiedet.
Ursprünglich begann eine Festplatte im Verbund von einem Volumen (Pool = DV01) (ZFS-Stripe von 2xFestplatten "1xHD-RAID(6TB) + 1xHD(1TB)")
scheinbar Festplattenfehler zu produzieren.
Nach Durchsuchen des Forums fand ich in der "was ihr immer fragt und nie liest"-FAQ Liste die Anleitung zum Austausch der Festplatte.
Der Anleitung bin ich gefolgt und mitten während des Reorganisierens auf der neuen Festplatte fror das System ein. Ein und viele weitere Versuche das System zu starten misslang.
Immer blieb das Sytem beim Booten an einem nicht zu identifizierenden Punkt (irgendwelchen Netzwerkinitialisierungen) hängen.
Nahm ich die neue Festplatte aber heraus, lief das System 'sauber' hoch. Die neue Festplatte (mit beiden Partitionen) hatte ich an einem anderem System gelöscht, ins System eingehangt und nun lief das System ebenso wieder rauf. Allerdings war FreeNas nun in Chaos geraten.
Das Volume (DV01) wird mit seinem Pfad "/mnt/DV01" unter "aktive Datenträger" in der Webmaske zwar angezeigt, der Status ist aber UNKNOWN, weil es unter dem Mountpoint nichts gemountet hat. (/mnt/DV01 ist nicht vorhanden)
Das HD-Raid ist aber als Device unter "/dev" als da0 (inkl. da0p1 und da0p2) weiterhin vorhanden, wird aber nicht als Device ins Volumen DV01 gemountet, bzw. verbunden.
Ebenso wird es auch in der "Zeige Festplatten"-Webmaske angezeigt.
Ein paar weitere Informationen habe ich noch gesammelt:
fstab:
df:
smartctl -a /dev/da0
zpool status -x:
Meine Frage a)
Gibt es eine Möglichkeit auf der Shell, durch einen Eintrag in ein ZFS-Volumen Register oä., dass das Volumen (Pool) wieder mit dem Device verbunden wird, so das ich auf einen Großteil der Daten wieder zugreifen kann?
Meine Frage b)
Falls a) nicht möglich ist, kann ich auf ein defektes ZFS-Volume extern zugreifen um evtl. (auch defekte, weil abgeschnittetne) Daten zu retten (Bsp. mit einer Life LinuxCD) und wenn mit welcher Software. Falls jemand dann auch noch eine kleine Anleitung dazu hat, wäre das ein super Glückstreffer
bin neu hier und habe mir ein heftiges Problem mit Freenas v 8.2 (ZFS) eingefangen. Ich nutzte FreeNas nun seit ca. 2 Jahre und hatte bisher kaum Probleme und hatte mich daher nicht ganz soviel mit den Internas des System beschäftigt. Jetzt hatte sich eine Festplatte in einem der ZFS-Pools verabschiedet und nach einem Rettungsversuch hat sich der Pool komplett verabschiedet.
Ursprünglich begann eine Festplatte im Verbund von einem Volumen (Pool = DV01) (ZFS-Stripe von 2xFestplatten "1xHD-RAID(6TB) + 1xHD(1TB)")
scheinbar Festplattenfehler zu produzieren.
Nach Durchsuchen des Forums fand ich in der "was ihr immer fragt und nie liest"-FAQ Liste die Anleitung zum Austausch der Festplatte.
Der Anleitung bin ich gefolgt und mitten während des Reorganisierens auf der neuen Festplatte fror das System ein. Ein und viele weitere Versuche das System zu starten misslang.
Immer blieb das Sytem beim Booten an einem nicht zu identifizierenden Punkt (irgendwelchen Netzwerkinitialisierungen) hängen.
Nahm ich die neue Festplatte aber heraus, lief das System 'sauber' hoch. Die neue Festplatte (mit beiden Partitionen) hatte ich an einem anderem System gelöscht, ins System eingehangt und nun lief das System ebenso wieder rauf. Allerdings war FreeNas nun in Chaos geraten.
Das Volume (DV01) wird mit seinem Pfad "/mnt/DV01" unter "aktive Datenträger" in der Webmaske zwar angezeigt, der Status ist aber UNKNOWN, weil es unter dem Mountpoint nichts gemountet hat. (/mnt/DV01 ist nicht vorhanden)

Das HD-Raid ist aber als Device unter "/dev" als da0 (inkl. da0p1 und da0p2) weiterhin vorhanden, wird aber nicht als Device ins Volumen DV01 gemountet, bzw. verbunden.

Ebenso wird es auch in der "Zeige Festplatten"-Webmaske angezeigt.

Ein paar weitere Informationen habe ich noch gesammelt:
fstab:
df:
smartctl -a /dev/da0
Code:
smartctl 5.42 2011-10-20 r3458 [FreeBSD 8.2-RELEASE-p9 amd64] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net Vendor: Areca Product:TM_DataSave_#01 Revision: R001 User Capacity:7,999,999,442,944 bytes [7.99 TB] Logical block size: 512 bytes Logical Unit id:0x0004d927fffff800 Serial number:0000001044637073 Device type:disk Transport protocol: Fibre channel (FCP-2) Local Time is:Sat Nov3 12:48:04 2012 CET Device supports SMART and is Enabled Temperature Warning Disabled or Not Supported SMART Health Status: OK Current Drive Temperature: 30 C Drive Trip Temperature:25 C Manufactured in week 30 of year 2002 Specified cycle count over device lifetime:4278190080 Accumulated start-stop cycles:256 Elements in grown defect list: 0 Error counter log: Errors Corrected by Total Correction GigabytesTo$ ECCrereads/errors algorithmprocessedun$ fast | delayed rewritescorrectedinvocations [10^9 bytes]er$ read:00 0 000.000$ write: 00 0 000.000$ Non-medium error count:0 Device does not support Self Test logging
zpool status -x:
Code:
all pools are healthy
Meine Frage a)
Gibt es eine Möglichkeit auf der Shell, durch einen Eintrag in ein ZFS-Volumen Register oä., dass das Volumen (Pool) wieder mit dem Device verbunden wird, so das ich auf einen Großteil der Daten wieder zugreifen kann?
Meine Frage b)
Falls a) nicht möglich ist, kann ich auf ein defektes ZFS-Volume extern zugreifen um evtl. (auch defekte, weil abgeschnittetne) Daten zu retten (Bsp. mit einer Life LinuxCD) und wenn mit welcher Software. Falls jemand dann auch noch eine kleine Anleitung dazu hat, wäre das ein super Glückstreffer