mar 05

Montage d’un SAN/NAS (3)

Suite de l’installation du SAN/NAS et sa partie logicielle.

Comme dit précédemment, je suis partie sur le projet OpenFiler qui convient le mieux a mes désirs.

J’ai tout d’abord tester la version stable, la 2.2, qui s’est installée sans soucis particulier, a reconnu mes disques et ma configuration.

Après quelques tests, curieux, je me suis penché (pas trop hein :-) ) sur la version Beta, la 2.3.

Et là, surprise, c’est une bombe :-D

Une nouvelle interface web, des réglages plus pointus sur le iSCSI, les droits, le channel-bonding intégré etc… Bref, un bijou et c’est cette version que j’ai installée.

Vous trouverez la procédure basique d’installation ici.

J’ai tout d’abord monter un RAID 1 de 10Go pour le système et de 1,5Go pour le swap via l’interface d’installation.

Quelques patchs a passer via Conary, le gestionnaire de paquet rPath comme décris sur le site web et c’est parti pour la configuration.

Voici quelques copies d’écrans plus explicite :

Disque

Disque2

Je vous passe les parties création de volume, partage NFS, SMB ou autres pour m’intéresser a ce que je veux monter : un SAN.

Création d’un volume iSCSI de 30Go :

iscsi1

Paramétrage du iSCSI target avec affectation de la nouvelle LUN créé.

Sachez qu’on peux affiner les controles d’accès suivant les ips, authentification CHAP ou/et LDAP etc…

Pour le moment je laisse tout ouvert.

iscsi2

iscsi3

Côté client, il existe un excellent article sur le iSCS sur UnixGarden donc je vous invite fortement à le lire.

J’avais tout d’abord essayer de recompiler mon noyau avec l’option iSCSI et ensuite installer les packages Debian Open-iSCSI, un fiasco complet, sûrement du au fait que mon kernel est compilé depuis les sources et non à la sauce Debian.

J’ai donc retirer le support au niveau du noyau et un petit tour sur le site d’Open-iscsi pour telecharger les sources.

Premier test, on scanne le SAN :

Thanatos:~# /etc/init.d/open-iscsi start
Starting iSCSI initiator service: iscsid.
Setting up iSCSI targets:.
Thanatos:~# iscsiadm -m discovery -t sendtargets -p 192.168.0.20:3260
192.168.0.20:3260,1 iqn.2006-01.com.openfiler:tsn.2b335a36430c

Un succès, attachons le :

Thanatos:~# iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.2b335a36430c -p 192.168.0.20:3260 -l
Login session [iface: default, target: iqn.2006-01.com.openfiler:tsn.2b335a36430c, portal: 192.168.0.20,3260]

Il ne reste qu’a jeter un oeil sur nos périphériques SCSI :

Thanatos:~# cat /proc/scsi/scsi
Attached devices:
Host: scsi1 Channel: 00 Id: 00 Lun: 00
Vendor: OPNFILER Model: VIRTUAL-DISK Rev: 0
Type: Direct-Access ANSI SCSI revision: 04

Et voila, un nouveau disque SCSI :-D

La preuve :

Thanatos:~# fdisk -l

Disk /dev/hda: 32.0 GB, 32003112960 bytes
255 heads, 63 sectors/track, 3890 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/hda1 * 1 3725 29921031 83 Linux
/dev/hda2 3726 3890 1325362+ 5 Extended
/dev/hda5 3726 3890 1325331 82 Linux swap / Solaris

Disk /dev/sda: 31.9 GB, 31977373696 bytes
64 heads, 32 sectors/track, 30496 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes

Device Boot Start End Blocks Id System
/dev/sda1 1 30496 31227888 83 Linux

Bien entendu, a ma première connexion au SAN, j’ai simplement fait un fdisk /dev/sda puis créé une partition que j’ai formaté.

Un mount bien placé et me voila avec un nouveau disque SCSI (via iSCSI) de 30Go…

Un succès total :-)

Thanatos:~# mount /dev/sda1 /data
Thanatos:~# mount
/dev/hda1 on / type ext3 (rw,errors=remount-ro)
tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
proc on /proc type proc (rw,noexec,nosuid,nodev)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
procbususb on /proc/bus/usb type usbfs (rw)
udev on /dev type tmpfs (rw,mode=0755)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)
/dev/sda1 on /data type ext3 (rw)

Thanatos:~# df -k
Sys. de fich. 1K-blocs Occupé Disponible Capacité Monté sur
/dev/hda1 29450988 10760432 17194508 39% /
tmpfs 256620 0 256620 0% /lib/init/rw
udev 10240 76 10164 1% /dev
tmpfs 256620 0 256620 0% /dev/shm
/dev/sda1 30737328 184572 28991364 1% /data

Mes premier tests de lecture/écriture sont bluffant, bien plus rapide qu’un montage NFS mais je vous laisse tester vous-même :-D

Ah, dernière chose qui fait le côté « geek » de la chose, mon /dev/sda1 est monté en… wifi :-)

Du iSCSI via un SAN en WiFi, ça déchire quand même un peu :-D

Conclusion : OpenFiler est un excellent produit que je vous conseille fortement d’essayer, bien entendu, de bonnes notions des environnements SAN sont nécessaires mais je suis sur que vous allez dévorer les articles a ce sujet.

PS : Je ne détaille pas volontairement toutes les étapes de configuration ou d’installation, la découverte est le meilleure moyen d’apprendre mais je reste à votre écoute si vous avez des questions à ce sujet. Le forum d’OpenFiler est vivant et les gens prêt à vous aider pour peu que vous maitrisiez la langue de Shakespeare.

Classé dans geekerie, matériel | 2 Commentaires
mar 04

Montage d’un SAN/NAS (2)

Suite de mon périple SAN (oui je parlerais SAN désormais, la fonctionnalité NAS restant basique (export NFS, SMB, Webdav ou autres…).

Avant tout, je vous invite fortement à lire les deux articles précédemment cités sur le NAS et le SAN pour en apprécier les différences.

Nous parlons désormais de partage distant en mode bloc, ce qui veut dire que chaque serveur voit son « partage » distant comme s’il s’agissait d’un disque local (principe du SAN a la base :-p), donc relisez bien les articles pour en comprendre la différence.

Au début de mon « envie », je m’étais décider a partir une distribution toute faite pour (ah la fainéantise…) et en l’occurence Freenas que j’avais déjà testé. Puis au fil de mes discussions avec d’autres « fous » comme moi, j’ai découvert une autre solution libre : Openfiler.

Et là, on ne joue plus dans la même cour :-)

Support AD (pas pour moi mais bon), support LDAP, iSCSI et tout ce qui me plait bien, bref, c’est LE choix pour ce que je veux faire (je vous laisse consulter le site web pour vérifier la puissance du produit).

Parti au départ pour utiliser la techno HostRaid d’Adaptec, je me suis vite rendu compte que ca m’emmerdait ennuyait plutôt qu’autre chose et en plus, ca m’a a moitié flingué ma carte, obligé de reflasher son Bios…

Bref, montage et installation sans soucis, avec deux disques SCSI en RAID 1 logiciel sur le canal A (avec bien sur, installation du grub sur les deux pour un reboot possible si l’un venait à mourir), et 3 autres en RAID 5 sur le canal B.

Le tout bien sur en SCSI 3 HotPlug dans des cages dédiés, ca roxx…

Voici le montage actuel qui ressemble, je l’avoue, a Bricolo-bricolette monte un SAN :-D

SAN_temp1

SAN_temp2

La suite au prochain billet :-)

Classé dans geekerie, matériel | 1 Comment
fév 28

Montage d’un SAN/NAS (1)

Cela fait plusieurs mois que ce me titille l’esprit, à savoir, construire un petit NAS à la maison et si possible, un SAN.

J’aurais pu acheter un des produits vendus en grande surface où vous trouverez des disques externes d’1 To avec carte réseau mais cela ne convenait pas à mon côté « geek » et ne répondait pas à ma problématique de « SAN ».
De plus, je cherchais à utiliser un peu mon « stock » de pièces détachées et surtout à partir sur une solution SCSI plutôt que du banal IDE/SATA.

Non, je ne trollerais pas sur sur les avantages des disques SCSI mais tout ceux qui ont déjà fait du transactionnel ou pousser les lectures/écritures un peu plus loin doivent, comme moi, sourire doucement, donc inutile nous expliquer :-)

Les premiers essais visaient donc à utiliser ma carte Adaptec 39320A :

Adaptec39320

C’est une carte SCSI deux canaux a controleur Ultra 320 (donc 320 Mo/sec par canal) qui dispose également de la technologie HostRaid (permettant de faire du RAID 0 ou 1).

Dans ma récupération, j’ai donc ressorti un vieux Pentium 200 Mhz avec 64 Mo de RAM et un bloc de fond de panier hotplug d’un vieux serveur IBM :

nas_beta

Quelques coupures de fils sauvage et un domino bien pourri pour alimenter le fond de panier qui dispose de sa propre connectique électrique (et non, ce n’est pas du Molex :-( …)

Bidouille

Un « petit » disque SCSI 3 IBM de 36 Go Hotplug SAS dedans et le boot devient très geek :

boot

Les premiers tests étant concluant, il me fallait trouver une autre UC pour héberger mon futur NAS (un pentium 200 avec 64 Mo de RAM suffirait amplement, la carte SCSI gérant les lectures/écritures sur le disque et le RAID matériel) mais j’avais également dans l’idée de déporter mon système de sauvegarde dessus et il me fallait donc un peu plus de puissance.

Un petit tour chez mon Broker préféré à Brest, KIT-PC (oui, oui, le site web est bien pourri et on se meule grave dans le magasin mais c’est pas le design et le web 2.0 qu’on lui demande…)

Bref, c’est pas un magasin pour « windoziens », tout est en vrac dans des caisses et il ne faut pas hésiter a farfouiller un peu et à se faire aider par la charmante demoiselle (si si :-) ) sur place.

Donc, après discussion, j’ai acheté une UC Toshiba (non, non, je ne veux pas savoir d’ou elle vient), Pentium III 800 Mhz avec 196 Mo de RAM et un Disque de 10 Go pour 60 euros.

Puissance largement suffisante pour couvrir mes besoins (et non, un p4 à 3 ghz avec 4go de ram ne sert à rien… <troll> Ah si, a pouvoir utiliser Vista… </troll>.

Retour à la maison et ouverture de la « bête », me restant encore quelques barettes de RAM de la vieille époque (non, non, je ne jettes rien :-) ) le voici reparti avec 768 Mo de RAM sans bipper (j’adore les vieux pc, ça accepte tout sans presque broncher).

Maintenant, reste à monter les fonds de paniers et le système…

Classé dans geekerie, matériel | Commentaires fermés
fév 26

VMware Serveur et 802.1q

Une des fonctionnalités intéressante de VMware ESX est la gestion des VLANs.

En effet, il n’est pas évident d’avoir autant de cartes réseaux sur son serveur que de VLANs dans son réseau.

Je me suis demandé si VMware serveur pouvait faire la même chose et bien… oui !

Je suppose, bien évidemment, que vous avez déjà des VLANs dans votre réseau (via votre Cisco préféré ou vos serveurs Linux), si ce n’est pas le cas, je vous conseille cet excellent tuto :

Introduction au Routage InterVlan

Pour pouvoir utiliser le 802.1q avec VMware serveur, vous devez patcher les sources avec l’excellent vmware-any-any-update que vous trouverez ci dessous :

vmware-any-any-update

Ce patch vous permet également de faire tourner VMware si votre kernel est trop récent pour lui, bref, un patch donc on ne peut plus se passer.

Ensuite, la configuration du reseau se fait en appelant vmware-config.pl.

Il ne vous reste plus qu’a associer vos ethx.x à vos Vmnet (ci-dessous ma configuration apres bascule) :

The following virtual networks have been defined:

. vmnet1 is bridged to eth1
. vmnet2 is bridged to eth3.2
. vmnet10 is bridged to eth3.10
. vmnet20 is bridged to eth1.20
. vmnet51 is bridged to eth2
. vmnet99 is bridged to eth1.99

Dans vos *.vmx de vos machines vituels, il ne reste plus qu’à affecter le vlan qui va bien :

Ethernet0.vnet = « /dev/vmnet99″ (pour mon vlan 99 par exemple)

Et voila, avec 1 ou 2 cartes réseaux et VMware serveur, vous pouvez désormais monter une infrastructure personnel (ou même professionnel), assez… amusante :-)

Classé dans réseau | Commentaires fermés