On accède aux commandes CLI d'administration avec la commande sccli en tant que root :

# sccli
sccli: selected device /dev/rdsk/c5t600C0FF0000000000B586B4B5F982000d0s2 [SUN StorEdge 3510 SN#0B586B]
sccli>

Pour voir le RAID mis en place :

sccli> show logi
LD    LD-ID        Size  Assigned  Type   Disks Spare  Failed Status
------------------------------------------------------------------------
ld0   50D52181 409.43GB  Primary   RAID0  3     0      0      Good
                         Write-Policy Default          StripeSize 128KB
ld1   78DF132C 272.96GB  Secondary RAID0  2     0      0      Good
                         Write-Policy Default          StripeSize 128KB


Comme vous pouvez le voir, le RAID actuellement en place est un RAID 0. Nous allons donc casser ce RAID pour reconstruire un RAID 5.

Attention : lorsque vous allez casser le RAID, vous allez perdre toutes vos données stockées dans la baie.

1. Suppression du RAID

Pour voir les LUN :

sccli> show lun
Ch Tgt LUN   ld/lv   ID-Partition  Assigned  Filter Map
---------------------------------------------------------------------
 0  40   0   ld0     50D52181-00   Primary
 1  42   0   ld1     78DF132C-00   Secondary

Pour supprimer un lun, il faut d'abord le "démapper" :

sccli> unmap partition 50D52181-00
sccli> unmap partition 78DF132C-00

Tapez ensuite exit pour sortir, puis sccli pour se reconnecter. Nous pouvons maintenant supprimer les luns :

sccli> delete logical-drive ld0
sccli> delete logical-drive ld1

Faire un exit pour sortir, puis sccli pour se reconnecter. Vérifiez ensuite que le RAID 0 a bien été supprimé avec la commande show logi.

2. Création du RAID 5

Affichage des disques disponibles :

sccli> show disk
Ch     Id      Size   Speed  LD     Status     IDs                      Rev
----------------------------------------------------------------------------
 2(3)   38  136.73GB   200MB  NONE    ONLINE     SEAGATE ST314685FSUN146G 042D
                                                   S/N 1781LG9J
                                                  WWNN 20000014C3C51B24
 2(3)   39  136.73GB   200MB  NONE    ONLINE     SEAGATE ST314685FSUN146G 042D
                                                   S/N 1781LJJA
                                                  WWNN 20000014C3C51C4C
 2(3)   40  136.73GB   200MB  NONE    ONLINE     SEAGATE ST314685FSUN146G 042D
                                                   S/N 1781K96A
                                                  WWNN 20000014C3C5179A
 2(3)   41  136.73GB   200MB  NONE    ONLINE     SEAGATE ST314685FSUN146G 042D
                                                   S/N 5280VRC0
                                                  WWNN 20000014C361C274
 2(3)  42  136.73GB   200MB  NONE    ONLINE     SEAGATE ST314685FSUN146G 042D
                                                   S/N 5280Z32B
                                                  WWNN 20000014C361C2DB


Ce qui nous intéresse, c'est les Id de la deuxième colonne, ainsi que le numéro de channel Ch de la première colonne. Ils vont nous permette de créer un lun. La commande permettant de créér un lun est la suivante :

sccli> create logical-drive raid-level disk-list [assignment] [global-spare {disk-list}] [stripe-size {size}] [max-disk-capacity{size}] [write-policy] [mode]

Nous allons donc créer un RAID5 avec les cinq disques d'Id de 38 à 42, sur le channel Ch 2, assigné au controlleur primaire:

sccli> create logical-drive raid5 2.38-42 primary


Si l'on indique pas l'option max-disk-capacity{size}, il prend la totalité de la taille des disques.

Pour voir l'avancement de la construction du RAID :

sccli> show logical-drives initializing
LD      LD-ID     Status
------------------------
ld0     4B86FB41  3% complete (online)


Une fois la construction terminée, il faut mapper le lun ld0.

3. Mappage du LUN

Pour mapper, on utilise la commande :

sccli>map partition-id channel.target.lun [wwpn | host-id][read-only | read-write] [include | exclude] [mask] [name]

partition-id est le nom du lun, soit ld0 dans notre cas.

Pour avoir le channel.target.lun, il nous faut la commande suivante :

sccli> show channel
Ch  Type    Media   Speed   Width  PID / SID
--------------------------------------------
 0  Host    FC(L)   2G      Serial  40 / N/A
 1  Host    FC(L)   N/A     Serial  N/A / 42
 2  DRV+RCC FC(L)   2G      Serial  14 / 15
 3  DRV+RCC FC(L)   2G      Serial  14 / 15
 4  Host    FC(L)   2G      Serial  44 / N/A
 5  Host    FC(L)   N/A     Serial  N/A / 46
 6  Host    LAN     N/A     Serial  N/A / N/A

Dans la liste, les channels Ch0 et Ch4 correspondent aux deux controlleurs de la baie. Le Ch 0 correspond au controlleur primaire, et le Ch 4 correspond au controlleur secondaire. Comme nous avons assigné le lun ld0 sur le controlleur primaire, nous pouvons donc mapper :

sccli> map ld0 0.40.0

4. Repartitionner le disque

Lorsque nous avons supprimé le RAID 0, et par la même occasion les LUNs associés, le "disque" qui apparaissait dans la commande format avait un <<drive not available>>, du genre :

c5t600C0FF0000000... <drive not available>
/scsi_vhci/ssd@g600c0ff000...
Normalement, il faudrait supprimé les anciens LUNs en utilisant la commande cfgadm. Mais nous n'allons pas le faire, parce que nous avons crée entre-temps le RAID 5, ce qui a nécessité le mappage du nouveau LUN. Le mappage a en fait crée un "nouveau" disque, et il suffit de "labelliser" le nouveau disque.
Mais avant toute chose, il faut quand même utiliser la commande cfgadm 
Pour cela, on fait :

# format

Searching for disks...done

AVAILABLE DISK SELECTIONS:

0.c0t0d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>

/pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@0,0

1.c0t1d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>

/pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@1,0

2.c5t600C0FF00000000009C9F14B86FB4100d0 <drive not availale>

/scsi_vhci/ssd@g600c0ff00000000009c9f14b86fb4100

En cours de rédaction...