Postingan

Menampilkan postingan dari Juni, 2016

Sejarah Social Network

Sejarah Social Network Sites ini dimulai dari tahun 1997-1998, yang di awali oleh SixDegrees,disusul oleh AIM dan ICQ Buddy. Dan Classmate. Pada tahun 1997-2001 muncul AsianAvenue, BlackPlanet,MiGente Serta pada tahun 1999 muncul LiveJournal's . Tahun 2000 terdapat LunarStorm. Dan tahun 2001-2007 muncul Ryze, yang terbagi atas: Tribe yang menarik perhatian pengguna umum,Linkedln yang menjadi layanan bisnis yang kuat dan Friendster yaitu situs pertemanan yang paling berpengaruh. Terakhir pada tahun 2007-Sekarang: Friendster, MySpace, Facebook, dll. Disebutkan bahwa tiga SNSs ini yang menjadi kunci yang membentuk bisnis, budaya dan dasar penelitian, karena tiga SNSs ini berkembang luas secara global dan banyak pengguna nya. Semua SNSs ini memiliki fitur yang bermacam-macam/ bervariasi sesuai dengan kebutuhan. Fenomena Global dalam hal ini di maksudkan SNSs sudah menjamur di seluruh dunia. Seperti MySpace ,Friendster ,Orkut ,Mixi ,LunarStorm ,Hyves,Grono ,Hi5 ,Bebo ,QQ ,Cyworld ,Xa...

Struktur Grid

• Merupakan perluasan dari struktur linear murni. • Struktur ini juga mengandung struktur linear dengan halaman alternatif dan struktur linear dengan halaman tambahan. 3. Struktur Hierarki • Sangat banyak digunakan oleh sebagian besar situs web. Karena struktur ini bersifat fleksibel dan mudah untuk dikembangkan jika diperlukan. • Menggunakan sub-sub direktori dan membentuk level-level ke bawah. • File-file yang memiliki karakteristik fungsi yang sama akan disimpan dalam satu dierktori. • Pada struktur ini gambar-gambar yang digunakan dalam setiap halaman web disimpan dalam sebuah drektori tertentu. Jenis-jenis Struktur Hierarki : 1. Struktur hierarki lebar/ wide hierarki • Merupakan struktur dasar dari bentuk hierarki dimana terdapat sebuah halaman depan yang menghubungkan halaman-halaman lain di dalam situs web. • Penempatan halaman-halaman selain halaman depan diletakkan dalam satu level melebar. • Struktur ini sering digunakan pada situs-situs web yang se...

Struktur Hierarki

• Sangat banyak digunakan oleh sebagian besar situs web. Karena struktur ini bersifat fleksibel dan mudah untuk dikembangkan jika diperlukan. • Menggunakan sub-sub direktori dan membentuk level-level ke bawah. • File-file yang memiliki karakteristik fungsi yang sama akan disimpan dalam satu dierktori. • Pada struktur ini gambar-gambar yang digunakan dalam setiap halaman web disimpan dalam sebuah drektori tertentu. Jenis-jenis Struktur Hierarki : 1. Struktur hierarki lebar/ wide hierarki • Merupakan struktur dasar dari bentuk hierarki dimana terdapat sebuah halaman depan yang menghubungkan halaman-halaman lain di dalam situs web. • Penempatan halaman-halaman selain halaman depan diletakkan dalam satu level melebar. • Struktur ini sering digunakan pada situs-situs web yang sederhana dimana sebuah halaman index yang menghubungkan dengan halaman-halaman isi. 2. Struktur hierarki pendek/ narrow hierarki. • Mirip dengan struktur hierarki lebar, perbedaannya adalah st...

Struktur Linear

A. Struktur linear murni B. Struktur linear dengan halaman tambahan C. Struktur linear dengan halaman pilihan D. Struktur linear dengan halaman alternative A. Struktur Linear murni : • Digunakan untuk situs-situs web yang kecil, seperti personal page. • Biasanya hanya terdiri dari 4 – 10 halaman. • Cocok digunakan untuk menampilkan isi yang bersifat tutorial atau penjelasan mengenai suatu pokok bahasan. • Kelemahan struktur jenis ini adalah ketidaknyamanan pengunjung dalam menjelajasi isi situs web. • Pada situs web yang besar struktur ini masih digunakan, tetapi hanya sebatas untuk bagian-bagian penting seperti halaman-halaman registrasi. B. Struktur linear tambahan : • Digunakan untuk menjelaskan sebuah isi sama seperti struktur linear murni • Uraian ini cocok untuk membuat sebuah penjelasan yang banyak mengandung uraian detail yang boleh untuk dilewatkan. • Kelemahan struktur ini sama dengan kelemahan struktur linear murni, yaitu pengunjung tidak dapat...

Struktur Sebuah Website

Hal pertama dalam mempelajari sesuatu biasanya adalah pengenalan. Begitu juga mengenai website, sebelum mempelajarinya lebih jauh, ada baiknya kita mengetahui bagian-bagian pembentuk sebuah website. Minimalnya dengan itu kita tahu, bagian mana yang bisa kita tangani, dan mana yang harus menggunakan jasa orang lain. Atau, kita tahu bagian mana yang harus diotak-atik dalam troubleshoting. Secara garis besar, agar dapat diakses oleh publik, sebuah website harus memiliki empat komponen utama. Jika manusia memiliki nama, tubuh, jiwa, dan rumah tempat tinggal, maka sebuah website pun memilikinya. Nama website, umumnya panduan dari domain dan TLD (Top Level Domain), dimana nama ini bersifat uniq yaitu tidak ada yang sama satupun didunia ini. Domain website ini adalah jayaweb, website ini menggunakan tld .com, jadi nama website ini adalah jayaweb.com. Beberapa tld lainnya yaitu .net, .info, .biz, dll. Tapi ada juga nama website menggunakan subdomain (sub/anak dari domain), semisal blog.ja...

CONTOH WEB CRAWLER

1.Teleport Pro Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com. 2.HTTrack Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com 3.Googlebot Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini. 4.Yahoo!Slurp Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Tekno...

FUNGSI CRAWLER

Crawler bertugas untuk mengindeks, membuat rangking, menyusun dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu yang sangat cepat. Obyek dari crawler adalah isi halaman, file, folder dan direktori web. Sedangkan subyek dari robots.txt adalah mesin pencari/search engine crawler. Crawler ini penting dipahami untuk SEO. Crawler akan berhadapan dengan robotsg.txt yang akan memandu mesin pencari/search engine seperti google, yahoo dan bing untuk mengindeks sebuat blog atau website. Sehingga crawler akan tahu mana halaman, folder atau file yang boleh diindeks atau tidak. Semakin lengkap sebuah panduan dalam robots.txt akan lebih baik. Dengan demikian robot crawler akan dengan cepat mengindeks isi website. Kebanyakan halaman situs berisi link ke halaman lain. Sebuah spider dapat memulai dari manapun. Apabila ia melihat sebuah link kepada halaman lain, maka ia akan segera menuju ke sana dan mengambilnya. Search engine seperti Alta vista mempunyai banyak spi...

Pengertian Web Crawler

Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer. Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan. Ketika web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web crawl, search engine akan menent...

PENGUKURAN WEB

Di bawah ini ada beberapa tools yang digunakan untuk mengeukur website dari segi kecepatan akses dan performanya, serta mengukut banyaknya pengunjung suatu website, berikut ini penjelasan mengenai beberapa tools yang digunakan untuk mengukur kecepatan akses website. 1. Pingdom Tools merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan berapa ukuran dari sebuah website tersebut. Beberapa kelebihannya di kategorikan sebagai berikut  : Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain. Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses. Page Analysis : melihat detail analisa halaman web. History : melihat detail akses dari beberapa hari lalu. Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses i...

Perkembangan Search Engine

Search Engine atau Mesin Pencari adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladendalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web. Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basis data tertutup, di antaranya yang paling populer adalah Google...

Prinsip kerja search engine

Setelah sebelumnya ada mengetahui pengertian dari search engne Berikut kita akan membahas   beberapa istilah dari sistem kerja mesin pencari yang perlu anda ketahui di antaranya adalah 1.Spider Spider adalah program yang men-download halaman-halaman yang mereka temukan, mirip dengan browser. Perbedannya adalah bahwa browser menapilkan secara langsung informasi yang ada baik yang berupa teks, gambar,file,video dll Untuk kepentingan manusia yang menggunakannya pada saat itu, Spider sendiri tidak melakukan untuk menampilkan dalam bentuk yang terlihat seperti itu, karena kepentingannya adalah untuk mesin, bukan untuk manusia, Robot spider dijalankan oleh mesin secara otomatis. Kepentingannya adalah untuk mengambil halaman-halaman yang dikunjunginya dan disimpan kedalam database yang dimiliki oleh search engine. 2.Crawler Crawler adalah M program yang dimiliki mesin pencari untuk melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya Crawler ...

Sejarah dan Perkembangan SEO

Sejarah dan Perkembangan SEO, istilah Search Engine Optimization/SEO pertama kali dikemukakan karena muncul vitus spam yang telah menyusup ke Usenet. Pada waktu itu, dunia internet belum memilii sistem search engine atau mesin pencari yang canggih seperti saat ini, sehingga mudah dimanipulasi oleh para hacker. Oleh karena itu, banyak para programmer yang berlomba-lomba untuk membuat algoritma sistem pencarian data, yang didasarkan sepenuhnya pada informasi meta tag dari kode html sebuah situs website. Meta tag menyediakan informasi tentang konten atau isi dalam suatu halaman web, dengan serangkaian kata kunci atau keyword. Namun, ada beberapa programmer yang melakukan tindakan ilegal, dengan menuliskan kata kunci yang tidak sesuai dengan konten situs yang sesungguhnya, sehingga situs mesin pencari salah menempatkan peringkat pada situs tersebut. Selanjutnya menimbulkan kerugian, baik bagi mesin pencari maupun bagi pengguna internet yang mengharapan hasil yang relevan. Seiring de...

Sejarah Search Engine

Sejarah Lahirnya Search Engine (Mesin Pencari) Perkembangan search engine berawal dari diciptakannya perangkat lunak yang bernama Archie oleh Alan Emtage, seorang mahasiswa dari Universitas McGill, Montreal, Kanada, pada tahun 1990. Perangkat lunak Archie mampu mengindex file-file terdapat pada FTP server publik. Ini merupakan aplikasi pertama yang digunakan untuk mencari informasi di internet, sehingga Archie dinobatkan sebagai nenek moyang dari search engine. Search engine berikutnya adalah Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) dan Jughead (Jonzy’s Universal Gopher Hierarchy Excavation And Display), yang mampu mengindex halaman-halaman plain text yang terdapat pada server gopher. World Wide Web Wanderer merupakan aplikasi search engine pertama yang menggunakan teknologi robot dalam melakukan proses indeks halaman-halaman web yang terdapat pada web server. Aplikasi ini dirintis oleh Matthew Gray, seorang mahasiswa dari MIT, namun sayang, apl...

Web Archive

Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal dan menjalankan aplikasi Web dalam satu file. Cara Kerja Web Archiving Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari. Contoh Web Archive Local Website Archive Aplikasi inilah yang memampukan kamu dapat dengan cepat untuk menyimpan dan mengarsipkan secara lengkap halaman web, disertai dengan keseluruhan gambar untuk tujuan digunakan sebagai referensi. Kamu dapat mengorganisasir arsip halaman web ke dalam kategori-kategori yang relevan atau sejenis, dan dapat menggunakan built-in browser display untuk menampilkannya secara offline. Sebagai tambahan, kamu juga dapat melakukan pencarian kese...