クラウドコンピューティングが犠牲にするもの

ここ最近、諸事情により少し外部目線でホストのプロジェクトに関わっています。うーん、「結局やっていることの本質は変わらないから」と思っていたけど、メインフレーム恐るべし。確かにアプリケーション部分の根本的な考え方はそんなに変わらない…とはいえ階層型DBをどうやって効率よく問題なく使うかなんかはさっぱりわからない…けれども、AIM(富士通トランザクションシステム/DB)とIMS(同IBM)を接続するための仕掛けの妥当性とかそういう話になるとさっぱりわからない。ここがオープンとかと違う話。
ホストは本来「オープンソースの元祖」といわれる向きもあります。ソフトウェアがハードのおまけだった時代、不自由なプログラミング環境を補うために、知識や作成したアプリケーションをシェアして便利にしようという組織がありました。今も続いています。
でも、日本での現在の状況は、もはや少なくなったメインフレーム環境をいかに自社に囲い込むかという部分があるのか、やっぱりメーカーからの情報公開は実にプアな状況です。for Unixとfor メインフレームで同じソフトなのにマニュアル載ってたり載ってなかったりとかね。営業を通せば請求できます、みたいなね。
さて、じゃあオープン系の何がオープンだったかというと、それも微妙で、確かにUnixアーキテクチャはメーカーが違おうが基本は一緒なんだけど、基盤導入から運用にいたる部分については全然違うじゃんと。標準シェルが違うところから始まって、システム設定運用系のコマンドが微妙に違ったりするので運用用のツールなんかは作ったものが使えないことが多々あります。パッケージだってあっちには入るけどこっちには入らない、と。アーキテクチャーがオープンなだけでは差別化された基盤部分は統一されないわけです。
クラウドになってくると、基盤の設定や運用などはもはや意識する必要がなく、アプリケーションのことだけ考えていればいいじゃんという世界に近づいてくる。しかし、その上で動くプラットホームレベルのもの、つまりミドルウェア以下の部分はまた囲い込みになったりしない?
ホストの技術が上層ではオープン的思想を持ちながら、結局閉じた世界になってしまったのは囲い込みという戦略のせいだと思うのだけど、クラウドも一番上以外は囲い込もうという考え方があるのだとしたら、Unixに対するLinuxみたいなものが出てきてしまうのではないでしょうか。もっとも、日本ではダウンロード規制のせいでP2Pの発展が阻害されるからどうかな?