スキップしてメイン コンテンツに移動

DRBD+OCFS2によるsambaのリダンダント構成

DRBDとOCFS2を使って、sambaをリダンダント構成にしてみました。構成は以下の通りです。

今回の設定では、レプリケーションセグメントは、別のデータセグメントにしています。なお、環境はdebian 10/busterを使用しています。またペースメーカなどのハートビート疎通確認ソフトは今回使用していませんので設定自体は非常にシンプルです。

以下設定方法です。まず、初めにdrbd-utilsとocfs2-toolsをインストールします。
apt-get install drbd-utils ocfs2-tools
続いて、ネットワークインターフェースの設定を行ってください。その後、ホスト名の編集等を行います。drbdとocfs2はデータセグメントのインターフェース名とホスト名を使用します。つまり、上述の構成でいえば、sv92/sv94ではなくsv92-local, sv94-localをそれぞれのホスト名にする必要があります。これに対し、sambaはサービスセグメントのインターフェース名(sv92/sv94)を使用しますので、注意してください。
# on sv92
#edit /etc/hosts
10.1.2.92 sv92
10.1.4.93 sv92-local

# on sv92
hostname sv92-local
#edit /etc/hostname
sv92-local
# on sv94
#edit /etc/hosts
10.1.2.94 sv94
10.1.4.95 sv94-local

# on sv94
hostname sv94-local
#edit /etc/hostname
sv94-local
続いて、/etc/drbd.d/drbd.resを以下の様に編集します。両方のサーバで行ってください。
resource drbd {
        net {
  protocol C;
  allow-two-primaries;
  after-sb-0pri discard-zero-changes;
  after-sb-1pri discard-secondary;
  after-sb-0pri disconnect;
        }
        volume 1 {
                device  /dev/drbd1;
                disk    /dev/sda;
                meta-disk internal;
        }
        volume 2 {
                device  /dev/drbd2;
                disk    /dev/sdb;
                meta-disk internal;
        }
        on sv92-local {
                address 10.1.4.93:7788;
        }

        on sv94-local {
                address 10.1.4.95:7788;
        }
}
続いて, /etc/ocfs2/cluster.confを以下の様に編集します。こちらも両方のサーバで行ってください。
cluster:
        node_count = 2
        name = ocfs2
node:
        ip_port = 7777
        ip_address = 10.1.4.93
        number = 0
        name = sv92-local
        cluster = ocfs2
node:
        ip_port = 7777
        ip_address = 10.1.4.95
        number = 1
        name = sv94-local
        cluster = ocfs2
ocfs2の設定には、これだけではなく、ocfs2をブート時起動させる必要がありますので、以下のコマンドで設定します。これも両方のサーバで行います。
dpkg-reconfigre ocfs2-tools
こちらの構成では、初めのブート時起動設定以外は、デフォルト値のままで設定できました。 続いて、ディスクを初期化します。
a. Volume初期化 ステップ1
# on both
drbdadm down drbd
drbdadm create-md drbd

# on both
drbdadm up drbd

ここで、volme 1. 2. が両方とも以下の様になっているか確認します。
# check on both
cat /proc/drbd
cs:Connected ro:Secondary/Secondary ds:Inconsistent/Inconsistent C r-----
b. Volume初期化 ステップ2
続いて、drbdのbitmapをクリアします。これは片方のマシンで実行します。
drbdadm new-current-uuid --clear-bitmap drbd/1
drbdadm new-current-uuid --clear-bitmap drbd/2
ここでの確認は以下の通りです。volume 1. 2. が両方とも以下の様になっているか確認します。
# check on both.
cat /proc/drbd
cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
ここまでできれば、ocfs2でのフォーマットを開始できる状態になります。
c. Volume初期化 ステップ3
今度はocfs2でvolumeをフォーマットします。 どちらかのサーバで以下のコマンドを使用し、drbdでいうprimaryノードに昇格させます。
# on one node.
drbdadm primary drbd
昇格はすぐに完了しますので、続いて昇格したノード上で、volume 1. 2. をocfs2にてフォーマットします。
#on the same above node(参考:1volumeのフォーマット時間は、テスト環境の500Gのディスクで数分。2TBで約17分。ともにGigabit Ethernet でローカル接続。)
mkfs -t ocfs2 -N 4 --fs-feature-level=max-features -L ocfs2_drbd1 /dev/drbd1
mkfs -t ocfs2 -N 4 --fs-feature-level=max-features -L ocfs2_drbd2 /dev/drbd2
以上で、BRDBの同期とOCFSの基本設定は完了です。続いて、/etc/fstabに以下の様に追加します。
LABEL=ocfs2_drbd1  /media/ocfs2_drbd1  ocfs2     _netdev,defaults  0 0
LABEL=ocfs2_drbd2  /media/ocfs2_drbd2  ocfs2     _netdev,defaults  0 0
ここまで設定できれば、
mkdir /media/ocfs2_drbd1
mkdir /media/ocfs2_drbd2

mount -a
以上でマウントできるはずです。(注:できるはずなのですが、どうやらバグまたは設定にコツがあるようで、fstabへの記述ではマウントできませんでしたので、当方の設定ではスクリプトでマウントするようにしています...)
d. Volume初期化 ステップ4
今回のリダンダント構成では、もう一方のサーバでもdrbdにてプライマリノードに昇格し、ディスクをマウントします。
# 残りのノードで
drbdadm primary drbd

# fstab (on another node)
LABEL=ocfs2_drbd1  /media/drbd1  ocfs2     _netdev,defaults  0 0
LABEL=ocfs2_drbd2  /media/drbd2  ocfs2     _netdev,defaults  0 0

mkdir /media/ocfs2_drbd1
mkdir /media/ocfs2_drbd2

mount -a
これでvol1, 2 共にリダンダント構成はできていますので、あとは、両方のサーバでドメインメンバーサーバを設定します。
この時、ad dcに参加させる/etc/smb.confではサーバ名(NetBIOS Name)は、sv92とsv94にしておきます。/etc/samba/smb.confの設定が済んだら、net ads join -UAdministratorでドメインに両方とも参加させてください。ドメイン参加に問題がなければ、設定は基本的に完了です。両方のマシンで同じ共有設定を行い、sambaを再起動します。ここで片方のマシンの共有ホルダーにファイルやフォルダーを新規作成すると、もう一方の共有フォルダーに同じフォルダーができていること等を確認してみてください。

DRBD+OCFS2を使ったsambaのリダンダント構成は以上です。

コメント

このブログの人気の投稿

Hyper-V Server2019にワークグループ環境下でWindows10(1809)から接続

Hyper-V server 2019に、ワークグループ環境にてWindows10(1809)から接続してみました。Windows10にHyper-V管理ツールがインストールされていることと、Hyper-V Serverをインストール済であることが前提です。以下、Hyper-V serverは名前がHyperVSV、アドレスは192.168.1.110としています。 まず、Hyper-V server上で、powershellを起動し、以下のコマンドを入力します。 Enable-WSManCredSSP -Role Server -Force 続いて、クライアントのWindows10のpowershell で以下のコマンドを入力します。 winrm quickconfig -Force Enable-WSManCredSSP -Role Client -DelegateComputer * -Force さらに、クライアントマシンで、gpedit(グループポリシーエディタ)を起動し、以下の要領でポリシーを設定します。 a. [コンピューターの構成]->[管理テンプレート]->[システム]->[資格情報の委任]->[NTLMのみのサーバー認証で新しい資格情報の委任を許可する] を有効にし、サーバを一覧に追加[表示...]ボタンをクリックして、「WSMAN/*」を追加 b. [コンピューターの構成]->[管理テンプレート]->[システム]->[資格情報の委任]->[NTLM のみのサーバー認証で保存された資格情報の委任を許可する] を有効にし、サーバを一覧に追加[表示...]ボタンをクリックして、「*」を追加 また、名前解決できるように、(notepadを管理者権限で実行し)C:\Windows\System32\Drivers\etc\hostsにサーバ名とIPアドレスの対を追加。 192.168.1.110 HyperVSV 最後に、Hyper-Vマネージャーを起動し、Windows10からHyper-V サーバに接続します。手順は以下の通りです。 「サーバーに接続」->コンピュータの選択->別のコンピューターに[HyperVSV]と入力し、[別のユーザーとして接続する

wsdd を使ってSamba サーバをネットワークに表示

Windows 10のアップデートで、セキュリティー対応のため、smbv1がデフォルトではインストールされなくなり、Samba serverがエクスプローラーのネットワークに表示されなくなってしまいました。そこで、いくつか方法を調べたのですが、linuxでwsdの実装がないか探したところ、 https://github.com/christgau/wsdd が、見つかりましたので、さっそくインストールしてみました。まだパッケージにはないようですが、インストール自身は簡単です。wsdd自体は以下のように取得し、linkを張っておきます。 cd /usr/local/bin/ sudo wget https://raw.githubusercontent.com/christgau/wsdd/master/src/wsdd.py sudo chmod 755 wsdd.py sudo ln -sf wsdd.py wsdd こちらのsambaサーバはDebianなので、/etc/systemd/system/wsdd.serviceは以下のようにしました。 [Unit] Description=Web Services Dynamic Discovery host daemon Requires=network-online.target After=network.target network-online.target multi-user.target [Service] Type=simple ExecStart=/usr/local/bin/wsdd -d MYDOMAIN [Install] WantedBy=multi-user.target wsdd -d MYDOMAINのところを、環境にあわせて書き換えてください。 次に、systemdに登録・起動テストを行います。 systemctl enable wsdd systemctl start wsdd 起動に成功すると、エクスプローラーのネットワークに表示されます。  なおこのwsddはpython3が必要です。一度試してみてください。SMBv1/CIFSを停止していても、大丈夫です。 cで書かれたほかのwsddの実装もあるようなので、いずれパッケージになるかもしれませ

フレッツ光クロス:MAP-E ROUTER by Debian Box (iptables)

フレッツ光クロスがようやく開通したので、Debianにてrouterを構成し接続してみました。なお、プロバイダーを選ぶにあたっては、IPoE方式がそれぞれ異なるため検討したところ、IPoEでは、MAP-Eでもv6plusとocnバーチャルコネクトがあり、前者がポート数240なのに対し、後者は約4倍のポート数が使えるようなネットの情報をみて、OCNバーチャルコネクトを選択しました。(プロバイダーとしてはぷららです。なおDS-LiteはCE側でのNATではないので今回は見送りました。)そこで、OCN バーチャルコネクトをDebian(iptables)で実現するとどうなるかと思い、ネットの情報を頼りにしつつ、設定した次第です。 実際に試した結果、とりあえず通信できていますが、MAP-Eは本来マッピングルールをマップサーバから取得するはずなので、今回のやり方が正解とはいえませんし、仕様変更されると通信できなくなる可能性があります。あくまでも参考程度ですが、本稿をUPしてみました。 2023/03/16追記: こちら にゲームコンソールNAT越え(Nintendo Switch ナットタイプ A判定)対応版を投稿しました。 2023/03/28追記:※1の記述および3行無効化によりNAT越え(Nintendo Switch ナットタイプ B判定)できるようになりました。 構成は以下の通りです。 ルーターがDebianで回線がOCNバーチャルコネクトであること以外はなにも特別なところはない構成です。 さて、いきなり設定ですが、まず、割り当てられたプレフィックスを確認します。 確認は、 dhclient -6 -d -P enp2s0 とします。出力の中に 前略 RCV: | | X-- IAPREFIX 2400:4050:5c71:af00::/56 後略 このようにプレフィックスが表示されるので、その確認したプレフィックスを書き留めておきます。これを こちらで 入力します。すると、 CE: 2400:4050:5c71:af00:99:f171:c600:2f00 IPv4 アドレス: 153.241.113.198 ポート番号:(1776-1791 2800-2815 3824-3839) 4848-4863 5872-5887 6896-