Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpft

Status
Not open for further replies.

Kieko

Cadet
Joined
Oct 20, 2012
Messages
4
Hallo zusammen,
bin neu hier und habe mir ein heftiges Problem mit Freenas v 8.2 (ZFS) eingefangen. Ich nutzte FreeNas nun seit ca. 2 Jahre und hatte bisher kaum Probleme und hatte mich daher nicht ganz soviel mit den Internas des System beschäftigt. Jetzt hatte sich eine Festplatte in einem der ZFS-Pools verabschiedet und nach einem Rettungsversuch hat sich der Pool komplett verabschiedet.

Ursprünglich begann eine Festplatte im Verbund von einem Volumen (Pool = DV01) (ZFS-Stripe von 2xFestplatten "1xHD-RAID(6TB) + 1xHD(1TB)")
scheinbar Festplattenfehler zu produzieren.
Nach Durchsuchen des Forums fand ich in der "was ihr immer fragt und nie liest"-FAQ Liste die Anleitung zum Austausch der Festplatte.
Der Anleitung bin ich gefolgt und mitten während des Reorganisierens auf der neuen Festplatte fror das System ein. Ein und viele weitere Versuche das System zu starten misslang.
Immer blieb das Sytem beim Booten an einem nicht zu identifizierenden Punkt (irgendwelchen Netzwerkinitialisierungen) hängen.

Nahm ich die neue Festplatte aber heraus, lief das System 'sauber' hoch. Die neue Festplatte (mit beiden Partitionen) hatte ich an einem anderem System gelöscht, ins System eingehangt und nun lief das System ebenso wieder rauf. Allerdings war FreeNas nun in Chaos geraten.

Das Volume (DV01) wird mit seinem Pfad "/mnt/DV01" unter "aktive Datenträger" in der Webmaske zwar angezeigt, der Status ist aber UNKNOWN, weil es unter dem Mountpoint nichts gemountet hat. (/mnt/DV01 ist nicht vorhanden)
2012-11-02_130852.jpg

Das HD-Raid ist aber als Device unter "/dev" als da0 (inkl. da0p1 und da0p2) weiterhin vorhanden, wird aber nicht als Device ins Volumen DV01 gemountet, bzw. verbunden.
2012-11-02_130706.jpg
Ebenso wird es auch in der "Zeige Festplatten"-Webmaske angezeigt.
2012-11-02_131010.jpg

Ein paar weitere Informationen habe ich noch gesammelt:
fstab:
2012-11-03_122725.jpg

df:
2012-11-03_122833.jpg

smartctl -a /dev/da0
Code:
smartctl 5.42 2011-10-20 r3458 [FreeBSD 8.2-RELEASE-p9 amd64] (local build) 
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

Vendor: Areca 
Product:TM_DataSave_#01 
Revision: R001
User Capacity:7,999,999,442,944 bytes [7.99 TB] 
Logical block size: 512 bytes 
Logical Unit id:0x0004d927fffff800
Serial number:0000001044637073
Device type:disk
Transport protocol: Fibre channel (FCP-2) 
Local Time is:Sat Nov3 12:48:04 2012 CET
Device supports SMART and is Enabled
Temperature Warning Disabled or Not Supported 
SMART Health Status: OK 

Current Drive Temperature: 30 C
Drive Trip Temperature:25 C
Manufactured in week 30 of year 2002
Specified cycle count over device lifetime:4278190080 
Accumulated start-stop cycles:256 
Elements in grown defect list: 0

Error counter log:
 Errors Corrected by Total Correction GigabytesTo$
 ECCrereads/errors algorithmprocessedun$
 fast | delayed rewritescorrectedinvocations [10^9 bytes]er$
read:00 0 000.000$


write: 00 0 000.000$

Non-medium error count:0
Device does not support Self Test logging 


zpool status -x:
Code:
all pools are healthy



Meine Frage a)
Gibt es eine Möglichkeit auf der Shell, durch einen Eintrag in ein ZFS-Volumen Register oä., dass das Volumen (Pool) wieder mit dem Device verbunden wird, so das ich auf einen Großteil der Daten wieder zugreifen kann?

Meine Frage b)
Falls a) nicht möglich ist, kann ich auf ein defektes ZFS-Volume extern zugreifen um evtl. (auch defekte, weil abgeschnittetne) Daten zu retten (Bsp. mit einer Life LinuxCD) und wenn mit welcher Software. Falls jemand dann auch noch eine kleine Anleitung dazu hat, wäre das ein super Glückstreffer :smile:
 

Teddie

Contributor
Joined
Feb 26, 2012
Messages
159
(ZFS-Stripe von 2xFestplatten "1xHD-RAID(6TB) + 1xHD(1TB)")

Diesen verrückten Haufen musst du mir mal näher erklären.
Wie kann man ein 6TB RAID mit einer 1TB HDD Stripen?!


Versuche mal den Pool zu exportieren und wieder zu importieren, ggf. mit einem anderen FreeNAS auf einem separaten USB-Stick.
Wenn du es mit FreeNAS nicht hinbekommst dann gar nicht - FreeNAS ist ein FreeBSD welches mit OpenSolaris die einzigen ZFS-Supportenden OS sind zumindest in der hohen ZFS-Version.
 

Kieko

Cadet
Joined
Oct 20, 2012
Messages
4
Re: Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpf

Ich versuche es nochmal, da ich nach meinem letzten Posting komplett wegen Krankheit ausgefallen bin.

Herzlichen Dank Teddie für Deine Antwort,
Diesen verrückten Haufen musst du mir mal näher erklären.
Wie kann man ein 6TB RAID mit einer 1TB HDD Stripen?!
Ich ahnte schon, dass das zu Fragen führt :confused: und dann noch mit einem Schreibfehler. Rätselslösung: Eine Areca RAID-Karte mit vier 2TB Festplatten als RAID0 = 8TB. Mit FreeNas 8.1
war daher eine 8TB große "Festplatte" in ein ZFS Volumen (DV01) gepackt und später kam eine 1TB Festplatte ins Volumen hinzu. Somit also ein ZFS-Stripe mit 9TB.

Als immer mehr Aussetzer auftraten und diese zusätzliche 1TB Festplatte sich als Problemfall herauskristallierte, wollte ich diese nach vers. Anleitungen im Internet und Forum austauschen.
Dass hatte dann in keiner Form funktioniert, aber ich will auch nicht sagen, ich hätte nicht etwas falsch gemacht. Faktisch ist das 8TB-Raid weiterhin im Rechner, die einzelne 1TB-Festplatte ist ausgebaut und verschrottet.
Übriggeblieben ist ein defektes Volumen, in den die einzelne Festplatte fehlt.

Versuche mal den Pool zu exportieren und wieder zu importieren, ggf. mit einem anderen FreeNAS auf einem separaten USB-Stick.
Wenn du es mit FreeNAS nicht hinbekommst dann gar nicht - FreeNAS ist ein FreeBSD welches mit OpenSolaris die einzigen ZFS-Supportenden OS sind zumindest in der hohen ZFS-Version.
Diese Variante hat leider auch zu keinem Ergebnis geführt.

Durch mein Krankentum ist das ganze etwas in den Hintergrund geraten, aber der Stand ist bis auf FreeNas-Updates so geblieben.
Nach diversen Updates von FreeNas (aktuell FreeNAS 8.3.1 x64) fiel mir dann auf, dass das Volumen (DV01) immernoch da ist. Wenn ich per automatischen Import versuche ein Volumen zu importieren,
dann zeigt das System mir folgendens an:

Anzeige: Volumen automatisch importieren
2013-04-02_210500.jpg

Anzeige: +Volumenmanager
2013-04-02_210356.jpg

Wird dieses dann importiert, gibt es einen Kernel Panic Attak und der gesamte Server bleibt stehen. Das "dirty Volumen" konnte also nicht importiert werden und lies den Rechner komplett abschmieren.
Ich habe auch versucht mit anderen Mitteln, Rettungsdisks (Knoppix, Windows, etc)(Infosites und Forum von Oracle-ZFS, etc), bzw. mit Harddisk-Tool an dieses einzelne Volumen, bzw. derer Daten ranzukommen, leider kein Erfolg.
Wo also speichert FreeNAS die Informationen zum Volumen und sind diese Manmipulierbar?

Frage an die Gemeinde:
Gibt es eine wie auch immer geartete Möglichkeit ein "dirty" ZFS-Volumen zu manipulieren, so das der Eintrag/Verkettung dieser einzenlen Festplatte verschwindet und anschließend es ein "Geheiltes" Volumen mit den 8TB übrig bleibt?
Also im Sinne wie, es gibt irgendwo eine Tabelle in der vermerkt ist, Volumen [DV01] besteht aus "FPnummer(0) 8TB" & "FPnummer(1) 1TB"; und in diese kann dann der Eintrag "FPnummer(1) 1TB" gelöscht werden.
Natürlich ist mir klar, das die Daten, die auf der 1TB waren, weg sind. Diese können ja nicht wieder hergestellt werden, dafür aber auf dem übriggebliebenen 8TB-Volumen die Dateien wieder im Zugriff sind, auch wenn einige davon defekt oder kaputt sind. Da die defekte Platte nur ein 3 Mon. aktiv war, dürften die Altdaten auf der 8TB weitesgehend zu 80% intakt sein. Das würde mir reichen, mir die Mühe zu machen, die Intakten herauszupusseln.

Oder gibt es Speziallisten, die für mittlere Vermögen eine Wiederherstellung des Volumen ermöglichen können.
... oder ist letztendlich alles verloren und ich kann das Volumen, bzw. die Festplatten komplett blank putzen, weil das ZFS-Volumen rettunglos verloren ist?

Mit besten Grüßen, Kieko
 

xaibex

Patron
Joined
Mar 19, 2013
Messages
340
Re: Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpf

Mit FreeNas 8.1 war daher eine 8TB große "Festplatte" in ein ZFS Volumen (DV01) gepackt und später kam eine 1TB Festplatte ins Volumen hinzu. Somit also ein ZFS-Stripe mit 9TB.

Tut mir echt leid, aber ich denke du hast ZFS nicht verstanden und wirst nicht mehr an deine Daten kommen. Dein 4x2TB Raid0 liefert zunächst keinerlei Redundanz. Bei ausfall einer deiner 2TB Platten sind alle Daten futsch. Durch einfaches hinzufügen (stripe) der zusätzlichen Platten hast du nun wieder ein quasi Raid0 aus dem 8TB Raid0 und der 1TB Platte gebaut. Fällt nun irgendeine der fünf festplatten aus oder wird getauscht sind ALLE Daten futsch! Also auch die auf den anderen vier Platten!

Tut mir echt leid für dich, aber so etwas sollte man wirklich mit mehr bedacht konzipieren.
 

Kieko

Cadet
Joined
Oct 20, 2012
Messages
4
Re: Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpf

Tut mir echt leid,aber ich denke du hast ZFS nicht verstanden und wirst nicht mehr an deine Daten kommen ... Tut mir echt leid für dich, aber so etwas sollte man wirklich mit mehr bedacht konzipieren.

Lieber xaibex,
herzlichen Dank für Deine Antwort, aber wenn Du keinen qualitativen Beitrag geben kannst, unterlasse es bitte. Das füllt nur das Forum und in diesem Fall meinen Thread.
1) Wiederholtest Du nur was ich schon beschrieb und damit weiß; 2) belehrst mich, ohne das es mich weiterbringt. Zudem kennst Du die Historie nicht.

Danke.
 

Kieko

Cadet
Joined
Oct 20, 2012
Messages
4
Re: Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpf


Dear ProtoSD,
many thanks for your tip.
However, maybe it is not hopeless yet.


Ich habe mich ein wenig im Forum umgetan und dabei bin ich auf einen Thread aufmerksam geworden, der mir vielleicht weiterhilft.

http://forums.freenas.org/showthread.php?11755-beide-Soft-Raid-0-weg-Auch-mein-Backup!!!-HILFE!!!

Das von dem Forumskollegen beschriebe Programm habe ich mir testweise besorgt und es scheint, das sich damit etwas anfangen läßt. UFS Explorer kann auf die "dirty" ZFF Partition zugreifen. Nun stehen lange Tests an, ob auch tatsächlich Inhalte gescannt und gefunden werden und diese kopierbar sind. Ich werde berichten, ob dieser Weg zu einem Erfolg führt.

Beste Grüße, Kieko.
 

xaibex

Patron
Joined
Mar 19, 2013
Messages
340
Re: Nach HD-Crash und Recoveryversuch wird Device nicht mehr mit ZFS-Volumen verknüpf

Lieber Kieko,

man muss die Historie nicht kennen um dir sagen zu können dass du definitiv die Daten nicht mehr retten können wirst. Wenn du es nicht magst belehrt zu werden, kümmere dich bitte selbst um deine Probleme und frage andere nicht nach Rat oder Hilfe. Wenn du der Meinung bist dass mein Beitrag keinen qualitativen Wert hat, hast du ihn offensichtlich nicht verstanden. Genauso wie das Grundprinzip von Raid oder ZFS.
 
Status
Not open for further replies.
Top