2008/5/23 Feris Thia <[EMAIL PROTECTED]>:

>  Yup Frans,
>
> Menurut gue sih itu adalah tren yang sudah tidak terhindarkan lagi, makanya
> gue setup http://blog.komputasiawan.com sebagai media menuangkan tulisan
> tentang cloud computing ini.
>

Tren sih tren. Pertanyaannya: kita butuh tidak?
Kalaupun butuh, cost-nya layak tidak?


>
> Dan soal ikut milis dan feed reader, saya ikutan topik BI dan hampir setiap
> hari ada saja topik tentang cloud computing ini. Makanya hayo pada research,
> jadi kita tidak ketinggalan banget. Dan menurut saya yang bisa kita riset
> dengan serius adalah Hadoop, karena didukung semua vendor internet besar
> juga sifatnya open source.
>

Cloud computing beda dengan distributed computing.
Hadoop <> cloud computing.

Hints: EC2 + S3 itu cloud computing.
HDFS bisa jalan diatas S3, dan JobTracker + NodeTracker + Slave(s) bisa
jalan diatas instances EC2. Been there, done that.


Menurut saya ada beberapa jenis arsitektur deployment yang harus dikunyah
baik-baik sebelum main-main distributed computing.

1. Virtualisasi a.k.a "satu mesin rame-rame".
Ini saya menganut mazhab-nya si Ezra dari EngineYard: cari server high-end,
lalu bikin banyak VM disana.
Misal: 2 Tomcat instance 2 VM, Load balancer 1 VM, Mysql master-slave 2 VM,
dan static content 1 VM. Total 6 VM di satu mesin.
Saat performa turun, tinggal cari bottlenecknya. Jika yang jadi bottleneck
misalnya Tomcat, kita cuma butuh cari server baru, setup VM diserver baru,
copy image Tomcat dari server lama ke server baru, dan voila. Zero
migration. Zero downtime.

2. Clustered. Bisa app server-nya yang dicluster (Glassfish Cluster, Tomcat
6.x cluster, dlsb), atau sekalian JVM-nya yang dicluster (Terracotta, dlsb).
3. Fail over a.k.a redundancy.

Di aplikasi yang butuh resource tinggi, pilihan kita tentu pakai Clustered
environment.
Di aplikasi yang butuh high-availability tinggi, tentu kita pakai
fail-over/redundancy dimana-mana.

Memakai 2 kombinasi ini saja sudah cukup powerful untuk nyaris semua
kebutuhan komputasi. Nggak perlu cloud, grid, distributed, dan
<insert_your_fave_buzz_here> computing.

Now, let's move to the bad part: Storage stuffs.

Hadoop FileSystem (HDFS) didesain untuk berjalan tangguh (fault-tolerant)
diatas ribuan low-end server. Masalahnya, ribuan server itu kan butuh
listrik :). Saya lebih suka sekalian cari high-end storage server yang
support banyak protokol (fibre channel, iSCSI, SAS, sampai SATA kalau masih
butuh). Kalau estimasi saya benar, 1 rack ukuran 42U bisa menampung 4-5
high-end storage server yang support hingga total +/- 2 Petabytes. Storage
server ini bisa dipecah menjadi beberapa filesystem sesuai kebutuhan. Bisa
ext2/3, ReiserFS, NTFS (God forbid), atau apapun deh.

Yang lebih asyik, +/- 2 petabytes itu bisa dimanage di satu console. Anda
bisa bersantai di Starbuck, cari wifi, hidupin PDA, dan mengatur semuanya
pake PocketPutty sambil nyeruput Caramel Macchiato.

Hadoop-style, untuk mencapai 2 Petabytes kita andaikan saja saya butuh
setidaknya 100 servers. Itu artinya 100 colokan listrik. 3 rack. 25 UPS. 25
lagi colokan listrik. 100 console/ssh. RAID 1-0 untuk database, RAID 5-1
untuk app servers. SAS atau SCSI. RPM-based atau DEB-based POSIX compliant
OS. Megazillion configuration.

Oh wait, 100 server itu rack-mounted atau tower? Kalau ini hanya low-end
server, yang biasanya model tower, jika kita tumpuk saja tanpa
memperhitungkan space dan cabling dan cooling system, saya butuh ruangan
setidaknya 20cm * 100 = 20 meter lebar dan 50cm * 100 = 50 meter panjang.


Saya dengan senang hati menunggu kritik pedas ;)



-- 
Sent by Atari Amiga64(R) through WiMAX network

Kirim email ke