aide- help raid-z et zfs corrompu suite a un kernel panic.

Status
Not open for further replies.

littlezeus11

Dabbler
Joined
Sep 20, 2013
Messages
17
bonjour a tous!

J'ai besoin d'aide, suite à un kernel panic sous freenas 8.3.1 x64, j'ai du rebooter notre serveur de stockage et au reboot le volume zfs ne se monte plus le point de montage nommé 'racine' apparaît avec l’erreur suivante:

racine /mnt/racine 0 (Erreur) Erreur en récupérant l'espace disponible Erreur en récupérant l'espace total UNKNOWN



les tentatives de nettoyage ne fonctionnent pas et me renvoient le log suivant:

Environment:

Software Version: FreeNAS-8.3.1-RELEASE-p2-x64 (r12686+b770da6_dirty)
Request Method: GET
Request URL: http://192.168.50.42/storage/scrub/1/


Traceback:
File "/usr/local/lib/python2.7/site-packages/django/core/handlers/base.py" in get_response
105. response = middleware_method(request, callback, callback_args, callback_kwargs)
File "/usr/local/www/freenasUI/../freenasUI/freeadmin/middleware.py" in process_view
166. return login_required(view_func)(request, *view_args, **view_kwargs)
File "/usr/local/lib/python2.7/site-packages/django/contrib/auth/decorators.py" in _wrapped_view
20. return view_func(request, *args, **kwargs)
File "/usr/local/www/freenasUI/../freenasUI/storage/views.py" in zpool_scrub
810. pool = notifier().zpool_parse(volume.vol_name)
File "/usr/local/www/freenasUI/../freenasUI/middleware/notifier.py" in zpool_parse
3758. parse = zfs.parse_status(name, doc, res)
File "/usr/local/www/freenasUI/../freenasUI/middleware/zfs.py" in parse_status
661. status = data.split('config:')[1]

Exception Type: IndexError at /storage/scrub/1/
Exception Value: list index out of range

autre info utile les 8 disque dur sont tous ok et vu par freenas, seul le volume (en raid-z2) semble être altéré.

notre config: freenas 8.3.1 x64 core i5, 8 disques dur 3To caviar red configuré en raid-z2.

merci d'avance pour toute l'aide que vous pourrez m'apporter j'ai des données extrêmement importante sur ce nas!
 

durdur

Patron
Joined
Aug 22, 2012
Messages
284
Salut,

Ouuuh, gros problème en effet. Avant tout a tu une idée de la cause du souci initial ? Qu'est ce qui a causé le kernel panic.

Déjà dans l'état actuel, que donne "zpool status" ?

Sinon la sécurité des données est primordiale, donc avant de tenter toute récupération, à ta place je ferais une recherche de panne, notamment sur la RAM, pas de RAM ECC avec un i5 j'imagine ? Je commencerais par un sérieux memtest pour être sur que tout va bien. Es tu sur de ton contrôleur de disque aussi ?

Ensuite si tout marche bien et selon le résultat du zpool status tu peux tenter de prendre un autre support d'installation de freenas (une autre clé USB) sur lequel tu remet un freenas 8.3.1 et tu tentes un import automatique du pool pour éliminer tout soucis de clé
 

littlezeus11

Dabbler
Joined
Sep 20, 2013
Messages
17
Bonsoir merci pour cette reponse!
Aucune idee sur la cause du kernel panic je ne me souviens plus des infos présentes a l écran au moment du plantage.je ne m attendais pas a avoir un tel problème au reboot...
Pour le contrôleur c'est une carte lsi sata/ sas configurée en simple jbod. J ai préféré faire du raid z2 pour pouvoir récupérer mes données en cas de crash du contrôleur mais finalement...
Pour le reste en effet pas de mémoire ecc mais le mem test est ok.
J ais effectue une sauvegarde de la configuration de freenas 8.3.1 que j ai ré importé sur une nouvelle clé usb via une nouvelle installation de freenas 8.3.1 p2 mais le résultat est le même .le point de montage 'racine' ne peux pas se monter et le zpool status ne voit aucun zpool! Zpool import idem..
Lors du boot le kernel m affiche successivement pour chacun des disques un problème via geom: gpt corrupted.
Est il possible que le système gpt ait été corrompu sur 8 disques en même temps?
Je ne suis pas calé en système zfs mais ce peux t il que ce soit ça qui empêche la détection du zpool?
si c est le cas comment réparer le système gpt sans tous altérer?
Merci d avance a tous ceux qui prendrons le temps de me lire!
et désolé pour les fautes de frappes éventuelles j écris depuis un smartphone..
 

durdur

Patron
Joined
Aug 22, 2012
Messages
284
Ok, donc tu es certain que ta RAM es nickelle et que ta carte SATA fonctionne à la perfection ? (On a vu passer un pb de contrôleur il y a plusieurs mois, c'est pour ça...)

Tu peux poster le contenu de /var/log/messages après un reboot et puis "gpart show" et "zpool import"


Ensuite, honnêtement je connais quelques manips sur ZFS mais je ne suis pas un grand expert. Si tu peux je te conseille de poster dans la partie "HELP and Support" du forum (en anglais). Il y a beaucoup plus de ressources.
 

littlezeus11

Dabbler
Joined
Sep 20, 2013
Messages
17
bonjour,
j'ai pu progresser dans la résolution de ce probleme:
en utilisant l'utilitaire gdisk via parted magic live cd:
gdisk /dev/sdX (X=lettre du HDD) option r (recovery menu) puis option -b (recover header) -c (recover table) -w (write change) ,
les disques étaient de nouveau visible sous gpart (freenas) mais était detecté avec un gpt corrompu.
donc avec la commande "gpart recover mfisyspdX" (X = numero du disque) , j'ai pu remettre en ordre le gpt de mes 8 disques (voir ci dessous le contenu de gpart status).
Malgrès cela mon volume racine n'est toujours pas visible, donc maintenant la question est comment faire pour recuperer les données ZFS du raid z2?
faut-il forcer un import si oui comment? (j'ai testé via l'interface de faire un import automatique et cela ne fonctionne pas).
faut-il essayer de recompiler les données des différentes partitions en dehors de freenas?
Merci d'avance pour les réponse que pourra m'apporter la communauté!

mfisyspd1p2 OK mfisyspd1
mfisyspd1p3 OK mfisyspd1
mfisyspd2p1 OK mfisyspd2
mfisyspd2p2 OK mfisyspd2
mfisyspd2p3 OK mfisyspd2
mfisyspd3p1 OK mfisyspd3
mfisyspd3p2 OK mfisyspd3
mfisyspd3p3 OK mfisyspd3
mfisyspd4p1 OK mfisyspd4
mfisyspd4p2 OK mfisyspd4
mfisyspd4p3 OK mfisyspd4
mfisyspd6p1 OK mfisyspd6
mfisyspd6p2 OK mfisyspd6
mfisyspd6p3 OK mfisyspd6
mfisyspd7p1 OK mfisyspd7
mfisyspd7p2 OK mfisyspd7
mfisyspd7p3 OK mfisyspd7
da0s1 OK da0
da0s2 OK da0
da0s3 OK da0
da0s4 OK da0
da0s1a OK da0s1
 

littlezeus11

Dabbler
Joined
Sep 20, 2013
Messages
17
Bonjour,
j'ai eu une idee cette nuit, mais j'ai besoin de votre avis avant de la mettre en pratique:

j'ai 8 disques dur neuf de 3To identiques à ceux qui contiennent les données à récupérer. Est-ce que si je recrée un raid z2 neuf en reproduisant le même schémas que pour le premier raid-z2 je pourrais transférer les tables de partitions de chacun des nouveaux disques vers le disque correspondant de l'ancien nas et surtout est ce que cela aiderais freenas a découvrir le zpool?
en suivant le schémas suivant:
nouveau raid-z2 (empty) > ancien raid-z2 (données corrompu)
gpt hdd1 > gpt hdd1
gpt hdd2 > gpt hdd2
etc...
 
Status
Not open for further replies.
Top