Ada lagi yang ingin saya share dengan teman-teman semua. Kali ini mengenai internet. Hehehe. Kali ini saya akan memperkenalkan kepada teman-teman semua dengan yang namanya Web Crawler. Hm? Sudah ada yang tahu belum? Bagi teman-teman yang kuliah di bidang sistem terdistribusi mungkin sudah tahu. Apa itu Web Crawler, apa saja aplikasi-aplikasi Web Crawler, serta kegunaannya.
OK. Web Crawler itu bukan nama aplikasi sebenarnya. Ada banyak kok aplikasi
yang berjenis Web Crawler. Oh iya, Web Crawler itu sendiri apa? Hmmm dari judul di atas sebenarnya sudah mewakili jawabannya. Jadi, Web Crawler adalah semacam aplikasi yang digunakan untuk menyimpan halaman sebuah web. Terus? Kenapa kita tidak gunakan Save Page As saja? Kan tanpa aplikasi. Nah, disitulah letak perbedaannya. Jika kita menggunakan Web Crawler, semua halaman secara otomatis akan terdownload. Jadi, kita bisa memiliki sebuah web orang lain yang kita download dan kita buka secara offline. Tanpa koneksi internet. Kalau pakai cara save page as kan kita harus simpan halaman satu-per-satu. lama.
Aplikasi yang digunakan ada banyak, cuman yang akan saya tunjukkan menggunakan WinHTTrack Website Copier. Dari namanya aja sudah jelas, Pengkopi web. Hehehe
Ok. Berikut adalah cara untuk menggunakan WinHTTrack.
1.Pertama, buka dahulu aplikasinya, seperti gambar di bawah ini. Kemudian klik tombol Next.
2. Nah, pada kolom New project name, isi susai keinginan Anda. Kalau saya biasanya diisi sesuai dengan web yang akan saya crawler. Project category juga jangan lupa diisi. Untuk Base path tetapkan saja pada system juga gapapa. Lalu klik Next.
3. Nah, sekarang masukkan URL atau alamat web yang akan kita crawler. Lalu Next lagi.
4. Kalau sudah keluar jendela seperti gambar di bawah ini, klik Finish.
5. Nah, sekarang akan dimulai proses pengunduhan. Tunggu sampai selesai.
Proses dari pengunduhan tergantung dari koneksi Internet juga. Selamat Mencobaaaa!!!!
0 komentar:
Post a Comment