Wikimedia Quarto/2/tech/Ja:

From Meta, a Wikimedia project coordination wiki
< Wikimedia Quarto‎ | 2‎ | tech
(Redirected from WQ/2/tech/Ja:)

en +/-

技術開発
技術開発

このレポートの大部分はJames Dayが、パリの Squid サーバの部分はDavid Monniauxが執筆しました。私たちのサーバに関する情報は『ウィキメディアのサーバ』ページでいつでもご覧いただけます。 開発者の活動は2つの主な分野に分けられます: サーバメンテナンスとMediaWikiソフトウェアの開発です。MediaWikiソフトウェアは、ウィキメディアプロジェクト外でも広く使われています。開発者の一覧は、全員ではないものの、『開発チーム』ページでご覧いただけます。開発者たちの貢献に感謝の意を表すには、お礼の書き込みや財政的な支援によって表すことができるでしょう。今までのところ、開発者はみな無償で働いてきました。しかし、この状況は将来、私たちの驚くべき成長を支えるために変化するかもしれません。

フランスへの Squid キャッシュの設置[edit]

パリ郊外のクラスタ
私たちのサーバは中央の3台です:
(上から順に bleuenn, chloe, ennael)

2004年12月18日、寄贈された3台のサーバがフランス・パリ郊外のオーベルヴィリエにあるコロケーションセンターに設置されました。この3台は寄贈者の希望によりそれぞれ bleuenn, chole, ennael と名付けられました。これらのマシンを技術者向けに説明しておくと、HP sa1100 1U サーバで、600MHzの Celeron プロセッサ、640メガバイトのRAM、20ギガバイトのATAハードディスクを装備しています。

これらのマシンでは Squid キャッシュサーバが稼働することになっています。これは、遅延を減少させるために利用者のもっと近くにウェブキャッシュを設置するテストケースとなるでしょう。通常、 DSL インターネット接続を利用するフランスのユーザは、これらのマシンに30ミリ秒の遅延で接続することができます。一方、フロリダにある我々のメインウィキメディアクラスタへは140ミリ秒かかります。この計画ではヨーロッパ地域の利用者がフランスの Squid キャッシュを使うことにより、匿名ユーザのためのページデータと全ユーザのためのマルチメディアデータに対する遅延を1/10秒減らします。ログインユーザにとってはそれほどの改善にはならないでしょう。ログインユーザごとにページが生成しなおされるため、ユーザ間でキャッシュが働かないからです。ページが Squid キャッシュにないか、あるいはログインユーザ用である場合、Apache ウェブサーバではページ生成に0.2から0.6秒、もしくはそれ以上の処理時間に加え、データベースでの処理時間を要します。データベース時間は単純なページでおよそ0.05秒ですが、カテゴリでは何秒もかかり、大きなウォッチリストになると100秒かかることもあります。

Telecityデータセンター
Telecityデータセンター

Squid によるキャッシュは2005年1月初めに稼動を開始し、幾度かの試行期間を経て、1月31日現在、マルチメディアコンテンツ並びに英語版及びフランス語版の内容をベルギー、フランス、ルクセンブルク、スイス、及びイギリス向けにキャッシュしています。システムはまだ試行中であり、調整による効率の向上が期待されています。他の国においても同様のキャッシュ・クラスタを設置することが検討されています。

フロリダのサーバ増強[edit]

2004年10月中旬に Opteron を2基と4GBの RAM を搭載し、6台のディスクを RAID0 構成としたサーバをデータベースのスレーブサーバ用としてもう2台と、3GHzの CPU と1GBの RAM を搭載したサーバを Apache用として5台発注しました。メーカー側の不手際で出荷時に解消されなかった互換性の問題から遅れが生じ、データベースの処理能力不足が続きました。このため12月初めまで検索機能を何度か停止せざるをえませんでした。

11月には、5台のウェブサーバが故障しました。そのうちの4台は RAM の性能が高く、 Squid 及び Memcached のキャッシュサーバとして使用されていたサーバでした。その結果、しばしばレスポンスが非常に悪化しました。

12月初めには、3GHzの CPU と3GBの RAM を搭載したサーバを5台発注しました。このうち4台は前月故障した Squid 及び Memcached 用のサーバの修理が終わるまでの間、元よりも高性能な代替機として投入されました。RAID0のSATAドライブを搭載した一台のマシンが、このような低コストのデータベースサーバがどの程度の負荷に耐えられるかをみる試験機として使用されます。また、このマシンでは、バックアップ専用のデータベーススレーブと同時に Apache も動かすという選択肢が提供できるかを確認する予定です。これらのサーバには、60ドルの追加コストで、リモートから電源及びサーバの状態監視用の拡張ボードをオプションで追加しています。今回の発注時にオプションを付けたことにより、遠隔操作できる電源タップ付きサーバ監視用ボードの効果を、より限定的な監視ツールと比較することができます。リモートから電源及びサーバ状態を監視できるようになることで、コストや遅れにつながるセンタ作業を減らすことができます。

2004年の第4四半期の終わりか2005年の第1四半期の初めに、データベースのマスター・サーバ1台と Apache サーバ5台の発注を計画しています。これによって、データベースのサーバをマスター1台・スレーブ2台という構成で2組に分けて、処理を半々に分けるようにします。資金は前回の寄付のお願い期間にいただいた寄付の残り5万米ドルを充てます。データベースサーバの分割により、分割したそれぞれでのディスクへの書き込み量は半減し、ユーザからのリクエストに対処するのに必要なディスク読み取り処理に余裕ができます。データベースの分割は、新規に購入したマスター用サーバをデータベースのスレーブとして試験的に運用して信頼性の確認を行ったのち、3ヶ月後に実施する予定です。

通信量の増加と帯域の増強[edit]

通信量が増加し、2004年の第3四半期の初めに450リクエスト毎秒だった通信量は、第3四半期末には800リクエスト毎秒に達しました。第4四半期の初めにはさらに増加して、日次のピーク時には1000リクエスト毎秒を超えました。その後、その数値は毎秒900で安定し、徐々に増えています。平均使用帯域は第4四半期の初めには平均約32Mbpsでしたが、第4四半期末には約43Mbpsに増加しました。標準的な一日での最高値は70Mbpsであり、単一のイーサネット接続の帯域の限界である100Mbpsに短時間ながら達することが何度もありました。この通信量を処理するため、二重の100Mbps接続が暫定的に使用され、そしてギガビット光ファイバー接続がフロリダのコロケーションセンタに配備され、必要な部品であるSFP光トランシーバが発注されました。