ただつらつらと日記が書かれていくようです。

タグ: はてなダイアリーからの移行記事 (8ページ目 (18ページ中))

東京ビッグサイトでやってる「クラウドコンピューティングEXPO」とやらに行ってきた。

ちょいとクラウド周りの情報収集のために東京ビッグサイトまで出かけてきた。その雑感をメモ。

f:id:y_fudi:20100513011841j:image

「クラウド」って?

まぁー、正直、百花繚乱というか、クラウドに関係がありそうなソリューションが自己申告で展示会に出てきてる印象。従来であれば、ASPという括りだったんじゃないのかと思えるようなアプリケーションベンダー(例えば、グループウェアとか)と、仮想化されたサーバを提供するようなキャリア(ま、ホワイト何とかの人たち)が同じ会場で、「ウチのクラウドが…」と語り始めるのは違和感がある。ITギョーカイとして、「クラウド」って言葉の定義というか、これまでの既存の概念と何が違うのかというあたりがさっぱり整理されていないなぁというか…。

レンタルサーバでいいじゃん。

個人的に、ハードウェアの仮想化に興味があったので、上記のアプリケーションベンダーの皆さんの話は割愛(…けど、雰囲気的には、アプリケーションベンダーの数がやっぱり多かったんだけど)で、いわゆる、HaaSといわれているようなサービスを提供するベンダーに話を聞いてみた。まぁ、なんつーか、XenやVMwareとか、簡単に仮想化できるミドルウェアが増えてきたから、(データセンターの利用効率を上げたい)通信キャリアのみなさんが自社のデータセンターに片っ端からサーバ詰めて、仮想化ミドルをインストールしてみただけなんじゃないのかっていう…、そんな印象。むしろ、安いHaaSだといろんなものがシェアされてるので、リソースの割り当て状況とか、微妙に気になるなぁ。例えば、誰かが24時間ずっと重いバッチが走らせているようなVMを動かしているとして、そのVMと同じ物理サーバには同居したくないなぁとか。

シェアリングすると言ってもね。

そういえば、安いHaaSだと、結構、いろんなものをシェアしてることがわかった。例えば、某HaaSはオプションでロードバランサを提供しているみたいなんだけど、ロードバランサ用にVMのインスタンスを立てて、keepalivedいれて…というものではなくて、ネットワークのどこかに置かれたアプライアンスのロードバランサをシェアするというサービスらしい。クソ高い、アプライアンスなロードバランサを安価で使えるというメリットはあるのかもしれないが、例えば、自分以外のお客さんのトラフィック急増でロードバランサが過負荷に陥っても、まぁ、ベストエフォートですからねぇと、生ぬるい笑みを浮かべるしかないと思うと、ちょっと切ない。

スペック感がよくわからん。

まー、どこでもそうなんですが、HaaSって、スペックに「CPU:1コア」とか「HDD:30GB」とかさらりと書かれている。これがまた結構ややこしい。同じCPUの1コアでも、例えば、CeleronとXeonでは計算能力がわりと違ってたりするだろうし、同じXeonでも古いのと新しいのではスペックが違うしなぁ。ディスクにしても、RAID5で構成されたRAID Arrayの上の30GBと、SSDの30GBではいろいろと違うんじゃないかという…。まぁ、運用していって、もし、能力が足りなくなってきたら、追加インスタンス起動っていうシンプルなルールでスケールアウトしていきゃいいんだろうけど、事前に見積もりして、いわゆるHaaSの方が安そうだって結論は得ておきたい。そうなると、なんかもうちょっと詳細なスペックが提示できないもんだろうか。

で、本当にメリットあるのか。

まぁ、HaaSとかはじめちゃうベンダーさんは、品質のいいデータセンターに、割と高いサーバを並べてるから、この値段なんですと言われると、そうなんだろうけれど、例えば、Webアプリ屋さんがVMをずらーっと並べてスケールアウトしたときに、本当に物理サーバを抱えていくよりメリットが出てくるんだろうかという気がした。例えば、コスト面でのメリット。最近のWeb系アプリをやってる人たちは自作でサーバを作れたりするし、自前でロードバランサもなんとかできちゃったりする。そういう人たちがハードウェアを所有するコストは、意外と安かったりするんじゃないだろうか。そういう人たちがHaaSに移行するメリットって何かあるんだろうか(遠い目)

うーむ、眠くなってきたので、とりあえず、こんな感じで。

クラウド大全 第2版 サービス詳細から基盤技術まで
日経BP社出版局
日経BP出版センター
売り上げランキング: 2026
おすすめ度の平均: 5.0

5 流行に強い日経

久しぶりにPCを作ってみた。~Phenom II x4 945とか使ってみるテスト~

ゴールデンウィークだって言うのに、することも特にないので、PCを新しく作ってみることにした。

それまで使ってたPCは、DELL製のIntel Core2 DuoのE6300を搭載しているマシンなので、Webを見てる分にはパワー不足を感じることはないけれど、FPS系のゲームを動かすと解像度を落としたりするなどの小細工が必要で、なんだかなーという不満を感じていたし、チップセット的に新しいCore2 Duoなどに換装することもできなさげ…ということで新調することになった。

で、とりあえず、今回はQuad Coreにしたいなぁと思いつつも、予算はそこそこ削減したいよね…ということで、CPUはAMDのPhenomIIにすることにした。現行のC2D E6300よりも多少のTDPの上昇は許せるということで「PhenomII X4 945」を選択。まぁ、Intel系のプロセッサでももちろんQuad Coreなプロセッサがあるんだけど、実際はDual CoreにHyper Threadingの組み合わせだったり、本当のQuad CoreなCore i5 750なんかは、「PhenomII X4 945」と比べると、ちょっと高いなぁという印象だった。

AMDのPhenomII X4 945の箱

AMDのPhenomII X4 945

で、マザーボードは、Intel系のプロセッサを選んだときよりも選択肢が少ないので、ささっと決められた。どうせなら新しいチップセットを搭載したのがいいかなぁと思ってみたりしたり、どうせならUSB3.0がオンボードで乗ってたらいいかなぁということで。Asusの「M4A87TD/USB」にしてみた。

M4A87TD/USB

AMDのPhenomII X4 945が乗っかったところ

んで、後は適当にDDR3なメモリーを選んでみた。今回はUMAXのヒートスプレッダ付きのメモリ。

新しいPCに使ったUMAXのメモリ

で、試しにWindows7をインストールして、Windowsエクスペリエンスインデックスを測ってみたら、総合で5.9だった。プロセッサは7.3だし、メモリも7.5。グラフィック系も6.4もあるんだけど、ハードディスクのスコアが5.9。よって、総合で5.9。まぁ、SSDとかにしないと向上しそうにもないので、ま、仕方ない。

まぁ、割と安く作れたし、OKとしますか。

AMD PhenomII X4 945(95W) HDX945WFGMBOX
AMD
売り上げランキング: 29457

はてなフォトライフの画像のアップロードがなんだかうまくいかない。

まぁ、ここに書いても仕方ないんだけども…(汗)

はてなフォトライフに画像をアップロードしてみたが、どの画像をアップしても、既存のファイル名でファイルがアップロードされてしまう。複数枚の写真を一気にアップロードしてるつもりだけど、結局、1枚しかアップされてないし、同じファイル名で延々とループが続く…のは私だけだろうか(汗)しばらく時間をおいてやってみたけど、なんにも変化がないし…もしかして、Windows7のせいか…と、なんでもかんでも疑い始めた俺ガイル。

追記:

まぁ、なんでもGoogle先生に聞いてみるもんですな…。上記の動作は、どうやら、はてなフォトライフ的には仕様らしい。→「はてなフォトライフの困った仕様」 id:kobakさんに感謝。そういわれてみると、私の写真もExif的に同じ撮影日時になってしまいそうな画像だったし、設定から「画像の表示順」を変更したら、アップロードできるようなった。あー、「画像の表示順」の設定によってはアップロードできなくなるって事象が発生するのはなんだかビミョーな気がするぞ。

ジャストシステムと一太郎と思い出と。

とってもどうでもいいことだけれど、ジャストシステムの一太郎が25周年らしい。近頃は、すっかりWordに押されている感があるが、官公庁や教育関係では未だに使われている…のはともかくとしても、25周年記念ということで、ジャストシステムのサイトで初代の一太郎Ver1.0の起動画面のスクリーンセーバーがダウンロード可能になっている。このニュースを見たときに、ふと、ずっと昔に、一太郎Ver3とか一太郎Ver4をいじくっていたことを思い出した(いや、まぁ、一応、ランドセルを背負っていたんですけどね)

当時、学校にあった、NECのPC-9801で(えーと、当時だと、PC-9801VX2とかPC-9801UV11とかだな…。VXはi80286搭載してるけど、UVはNEC製のV30を搭載してて、なんかちょっとがっかりみたいな。そういえば、PC-9801UVに搭載されてたフロッピードライブはうるさかったぁ…遠い目)MS-DOSのVer3.3とかを起動して、config.sysをいじくってFEPとしてATOK6を読み込んでみたり、LOGOでカメを動かすアプリを書いて悦に入ったりして…。うーむ、懐かしい。今、使ってるPCは、4GBのメモリに320GBのHDDを搭載しているけれど、当時のメインメモリは640KBだったが、そもそもHDDがついてるマシン自体がレアだった。それに、HDDが付いていてもせいぜい40MB(しかも、SASIって、今では絶滅済みの規格だった)だった。それでも、フロッピー換算すると、やたらと広大なディスクだと思っていたし、滅茶苦茶に高速なストレージで驚いた。当時の感覚からすると、隔世の感ありまくりだ。

そういえば、当時は、一太郎だけではなく、p1.exe(えーと、アルガって名前だったかな)とか松とかいろんなワープロソフトがリリースされていて、結構、機能拡張競争だとか行われて…結構、見ててもおもしろかったような気がする。で、それがWindows時代がやってきた途端にばたばたと挫折するベンダーが増えてきてほとんど死に絶えたわけで、最近、ちょっとイマイチな感じのジャストシステムだけど、このWindowsの波で死ななかったのは、それなりに賞賛に値するかもしれないなぁ…と。

…えーと、なんなんだ、このエントリーは(汗)

光ファイバーが切れて、ひかり電話が使えなくなる(涙)

ある日、電話が使えなくなった。

とりあえず、PBXは生きてそうだし、電話機もなんとなく電源が入ってるっぽい。で、ひかり電話なので、PBXの先をあさってみると、ONUとVoIPゲートウェイがいて、とりあえずランプは付いているので、電源は入っているという状況。どちらの機器も一目で壊れている状況ではなく…ということで、困った挙句にNTTの故障担当に電話して、電話越しにONUのランプを確認している時に、どうやら上流の機器と接続していない状況っぽいことが判明した。で、その一方で、ひかり電話のCAがダウンしているという状況もないので、NTTの局舎とオフィスの間の光ファイバー回線になにか障害が起こっていそうということが判明したので、担当者を派遣してもらえることになった。

で。

しばらくしてNTTの担当者がやってきて、ONUの上流にある光ファイバーを調べてもらった。光ファイバーに検査機器みたいなのを接続してみたところ(きっと、光ファイバーに可視光を流す機械だったんだろうな)、以下のような状況になっていた。

光ファイバーから漏れる光 その1

さらに、ズームするとこんな感じ。

光ファイバーから漏れる光 その2

…おっと光ファイバーから光が漏れてる(汗)

というわけで、ビルのMDFで光ファイバーがどうにかなったという状況でも、電線で光ファイバーが…という状況でもなく、結局は、オフィスの2重床の下側で光ファイバーが断線していたという、なんともシビれるオチだった。NTTの人に光ファイバーを局所的に交換してもらったところ、ONUの消えていたランプが点灯して、ほどなくしてひかり電話が復旧。めでたしめでたし。

でも、光ファイバーが折れて光が通らなくなるという状況(しかも、二重床の下側で!)の原因がなんなのかはついぞ判明しなかった。オフィスの配置をいじったときに二重床をいじったけれども、それで光ファイバーに余計な力がかかるというのもなんとなく解せない。

Twitterの解剖学とか

しばらく前のTwitterはしばらくやたらとクジラを表示していたような気がする(…ま、いわゆる503ってヤツですな)が、その裏でTwitterのエンジニアがどうやって、クジラを出さないようにしていったかというエントリーを発見。

ま、答えに至る過程はいろいろとあるんだけど、結局、負荷が高まった時のmemcachedに対するIOのレイテンシーが増えていることに気がついて、無駄なmemcachedへのアクセスをなくすこととその他の対策を講じることによって50%ほどのキャパシティ改善を実現したそうな。へー。

ぱっと見た感じ、無駄なデータの読み込みが原因ってことで、結論としては思ったより凡庸というか、ありがちな話ではあるけれど、ここに至る道筋が大変だったんだろうなと思う。特にTwitter級のデカさになると、データの巨大さ故に全体を把握するのがすさまじく大変だろうなー。まさに、

Unfortunately, we collected a huge amount of data and it was hard to understand.

って書いてある通りだろう(遠い目)。

でも、最近、パッと見た感じで、この辺が怪しいと思われるようなヤヤコシイ部分よりも、シンプルで大したことないと思い込んでいる部分に問題が潜んでいることが多くて困惑するので、なんだか考えさせられた。上記のTwitterの事例でいえば、普通に考えてmemcachedへのアクセスなんて高速に違いないと思うわけで、個人的には、シンプルで大したことない部分に分類してしまう(=ボトルネックなんて考えない)だろうし、関係ない部分をちびちびちいじって、ハマってしまうんだろうな。

…やっぱり、Webアプリは難しいなどと考えてしまう次第。

Subversionが「Apache Subversion」になるとか

Slashdot Japanの「Subversion は Apache Subversion へ」って記事によると、バージョン管理ソフトのSubversionがいつの間にか、Apacheのトッププロジェクトになってたそうだ。なので、Subversionが「Apache Subversion」という名前になるらしく。へぇー。

まぁ、改めて見てみると、apache.orgなんぞ見てみると、WebサーバのApacheを始めとしてすごーく数多いプロジェクト(サブプロジェクトまで数えるとすごいことになりそうだ)を抱えてるわけで、私もいろいろとApacheのプロジェクトの成果物で楽してるクチではあるな。でも、これだけのプロジェクトが全てアクティブだとすると、それはそれで凄まじいことなんだろうけど、実態はどうなんだろうということが気になった。

あー、そういえば、使ってるSubversionのバージョンが古いまま放置されてる件、どうにかしないと(汗)

Vyattaでルータでも構築してみるか。って、まずNIC。

Vyattaというオープンソースなソフトウェアがある(開発はVyatta INC.)このVyattaはDebianベースのソフトで、x86サーバをCiscoのルータと競えるくらいのスペックに変えてしまう、ルータソフトウェア。で、Vyatta INC自体は、サポートが必要なら、サブクリプションを買ってくださいというRedHatに似たビジネスモデルで会社を営んでいる(あと、Vyattaをインストールしたアプライアンスも売ってるみたい)

で、ちょいとこのVyattaを使ってルータでも作ってみるかということでいろいろと企んでいたが、そもそもハードウェアどうするかというところで、適当なマシンを組み立てたけれど、前回の反省から、ちょっとNICには気を使おうと思っていた。

ま、こういうケアが意外と功を奏するものだ(…とはいえ、ややこしいことにはなっている)

まず、安NICを回避しようと思ったら、とりあえず、IntelのNICですよねーということ(発想は単純)で、最初は「Gigabit CT Desktop Adapter」(EXPI9301CT…で、コントローラはIntel 82574L)でも買おうかと思っていたんだけど、これが動作するためには「e1000e」ってドライバが必要…と。

だけど、今回のVyattaのターゲットバージョンは「Vyatta Community Edition 5」にしたけれど、このバージョンのベースになっているDebianのカーネルは2.6.26。で、この2.6.26には「e1000e」が入っていないとのこと。あー。

まぁ、ドライバを導入すりゃいいんだけど、どっちかというとルータにドライバ導入とかやりたくないような…。で、一方、従来のギガビットイーサネット用のe1000ドライバは持っているけれど、既にe1000で動作するIntel製NICが売ってなさげ(汗)ま、サーバ向けNICにあるけど、ちと高い。

というわけで、調べに調べてみた結果、HPのサーバ向けNICが古いコントローラを搭載しているらしいということに気がついた。それは、HPのNC110Tってやつ。しかも、9,000円。Intelのサーバ向けNICより、少し安い。これに使われているコントローラが「82572GI」って代物で、「Intel PRO/1000 PT Server Adapter」あたりに搭載されているコントローラ。このサーバ向けのPRO/1000PTは、Vyattaもサポートしているっぽいので、まぁ、なんとかなるだろうということで(汗)

HPのNC110T

新しく構築したマシンに挿してVyattaを起動してみたけれど、なんとなくうまく認識してるっぽい。後ほど、ちょっと使ってみる予定。

アプライアンスが仮想化される日

@ITで、こんな記事を見つけた。「米F5ネットワークス、2月中にBIG-IPのソフトウェア版を発表へ

最近、ハードウェアベンダーもソフトウェアベンダーも「クラウド」一辺倒になっていて、これはこれでおもしろいなぁと思って眺めていたけれど、一方で、ファイヤーウォールとかロードバランサのようなアプライアンス系のベンダーがどうするのかなと思って眺めていた。

…というのも、仮想化されたクラウドの世界には、彼らのケバケバしい色(…そんなイメージだけど、偏見だろうか…)のアプライアンスを持ち込めないわけで、なんにもしなければ、このままクラウドブームに乗り遅れることになるのに…と思っていたら、ロードバランサ等の大手のF5ネットワークスは、仮想化されたマシンで動く「ソフトウェア版のBIG-IP」をリリースして、クラウドブームに乗っかる気らしい。

まぁ、クラウドの中で仮想マシンをスケールアウトしていくアーキテクチャになると、BIG-IPみたいな、既存のアプライアンスが果たしている役割を担う何かが必要とされているのも確かなんだけろうな。でも、仮に、(アプライアンスが持っているらしい)ハードウェアの特殊性と優位性を取り除いて、仮想マシン上で動くソフトウェアとして、そのデキ(性能や堅牢性など)をオープンソースなソフトと競った場合に、プロプライエタリなアプリケーションにどれだけ優位性があるのか、ちょっと気になるところではあるな…と。

西日本シティ銀行で勘定系ダウンらしい

西日本シティ銀行で勘定系がダウンしたらしい。しかも、待機系に切り替わったけれど、その待機系もダウンというかなり悲惨な状況だったらしい(汗)ダウンと復旧かぁ…ACT-SBY系のクラスタだと、こういう状態になるのが一番イヤだなぁ…(遠い目)

上記の記事より。

2010年1月29日に西日本シティ銀行で発生したシステム障害は、約6時間後の午後5時15分に全面復旧した。11時35分に本番系の勘定系システムがダウンした直後、いったんは待機系のシステムに切り替わった。だがその後、待機系もダウンした。時間帯によっては取り引きができた顧客もいたもようで、ダウンと復旧を繰り返す不安定な状態が続いていたとみられる。

で、この辺の古いニュースを見ると、どうやら、NTTデータ製のシステムが日立製のメインフレーム上で動作している…んだろうか。

こういうニュースを聞く度に、メインフレームのウリって、確か、信頼性っていうか、とにもかくにも落ちませんってところじゃないのかなぁと思うんだけど、意外にあっさり落ちてるんじゃん…みたいな印象を持ってしまう。しかも、システムに何ら変更を加えていない状態で、いきなりダウンが発生するというのは、なんとなーく、メインフレーム神話を崩壊させてくれるなぁと(笑)

« Older posts Newer posts »