Seo Search Engine Optimization

SEO = Search Engine Optimization

Optimisasi mesin pencari (SEO) adalah proses meningkatkan visibilitas situs Web atau halaman web di mesin pencari melalui the "natural" or un-paid ("organik" atau "algorithmic") hasil pencarian. Secara umum, sebelumnya (atau lebih tinggi peringkat pada halaman hasil pencarian), dan lebih sering situs muncul dalam daftar hasil pencarian, semakin banyak pengunjung itu akan menerima dari pengguna mesin pencari. SEO dapat menargetkan berbagai jenis pencarian, termasuk pencarian gambar, pencarian lokal, pencarian video, cari akademis, berita pencarian dan industri-mesin pencari spesifik vertikal.

Seo  Search Engine Optimization - Muka Internet

Sebagai strategi pemasaran Internet, SEO mempertimbangkan bagaimana mesin pencari bekerja, apa yang dicari orang, istilah pencarian yang sebenarnya atau kata kunci diketik ke mesin pencari dan mesin pencari yang lebih disukai oleh pemirsa yang ditargetkan mereka. Mengoptimalkan website mungkin melibatkan mengedit isinya dan HTML dan terkait coding untuk meningkatkan relevansi kata kunci spesifik dan menghapus hambatan untuk mengindeks kegiatan mesin pencari. Mempromosikan situs untuk meningkatkan jumlah backlink, atau link inbound, merupakan taktik SEO.

Singkatan "SEO" dapat merujuk kepada "search engine", sebuah istilah yang diadopsi oleh industri konsultan yang melaksanakan proyek optimalisasi atas nama klien, dan oleh pegawai yang melakukan layanan SEO in-house. Cari engine mungkin menawarkan SEO sebagai layanan yang berdiri sendiri atau sebagai bagian dari kampanye pemasaran yang lebih luas. Karena efektif SEO mungkin memerlukan perubahan ke kode sumber HTML situs dan konten situs, taktik SEO mungkin dimasukkan ke dalam pengembangan situs web dan desain. Istilah "mesin pencari ramah" dapat digunakan untuk menggambarkan desain situs web, menu, sistem manajemen konten, gambar, video, shopping cart, dan elemen lainnya yang telah dioptimalkan untuk tujuan pemaparan mesin pencari.

Webmaster

Webmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari pada pertengahan 1990-an, sebagai mesin pencari pertama katalogisasi Web awal. Pada awalnya, semua webmaster perlu lakukan adalah menyerahkan alamat halaman, atau URL, ke berbagai mesin yang akan mengirim "laba-laba" untuk "merangkak" halaman tersebut, ekstrak link ke halaman lain dari itu, dan kembali informasi yang ditemukan pada halaman yang akan diindeks. 


Proses ini melibatkan spider mesin pencari men-download halaman dan menyimpannya di server sendiri mesin pencari, dimana program kedua, dikenal sebagai pengindeks sebuah, ekstrak berbagai informasi tentang halaman, seperti kata-kata. itu berisi dan di mana berada, dan juga setiap berat kata-kata tertentu, dan semua link halaman tersebut berisi, yang kemudian ditempatkan dalam scheduler untuk merangkak di kemudian hari.

Situs pemilik mulai mengakui nilai dari memiliki situs mereka sangat peringkat dan terlihat dalam hasil mesin pencari, menciptakan kesempatan untuk kedua topi putih dan topi hitam SEO praktisi. Menurut analis industri Danny Sullivan, istilah "optimasi mesin pencari" mungkin mulai dipakai pada tahun 1997. Penggunaan didokumentasikan pertama dari Search Engine Optimization istilah adalah John Audette dan perusahaan Pemasaran nya Grup Multimedia seperti yang didokumentasikan oleh sebuah halaman web dari yang MMG situs dari Agustus, 1997.

Versi awal algoritma pencarian didasarkan pada webmaster yang disediakan informasi seperti meta tag kata kunci, atau file indeks dalam mesin seperti Aliweb. Meta tag menyediakan panduan untuk isi setiap halaman. Menggunakan meta data untuk mengindeks halaman ditemukan kurang dari diandalkan, Namun, karena pilihan webmaster kata kunci dalam meta tag berpotensi menjadi representasi akurat dari konten yang sebenarnya situs. Data yang tidak akurat, tidak lengkap, dan tidak konsisten dalam meta tag bisa dan tidak menyebabkan halaman untuk peringkat untuk pencarian yang tidak relevan. Web penyedia konten juga dimanipulasi sejumlah atribut dalam sumber HTML halaman dalam upaya untuk peringkat baik di mesin pencari .

Dengan mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang secara eksklusif dalam kontrol webmaster, mesin pencari awal menderita dari penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada pengguna mereka, mesin pencari harus beradaptasi untuk memastikan hasilnya menunjukkan halaman hasil pencarian yang paling relevan, daripada halaman tidak terkait diisi dengan kata kunci banyak oleh webmaster yang tidak bermoral. Karena keberhasilan dan popularitas mesin pencarian ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap pencarian tertentu, yang memungkinkan hasil tersebut tidak benar akan berbelok pengguna untuk menemukan sumber pencari lainnya. Search engine menanggapi dengan mengembangkan algoritma peringkat lebih kompleks, mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk webmaster untuk memanipulasi .

Mahasiswa pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan "BackRub," sebuah mesin pencari yang mengandalkan algoritma matematis untuk menilai keunggulan halaman web. Jumlah dihitung dengan algoritma, PageRank, merupakan fungsi dari kuantitas dan kekuatan inbound link. PageRank memperkirakan kemungkinan bahwa halaman yang diberikan akan dicapai oleh pengguna web yang secara acak surfs web, dan mengikuti link dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa link yang kuat dari yang lain, sebagai halaman PageRank yang lebih tinggi lebih mungkin dicapai oleh surfer acak.

Page dan Brin mendirikan Google tahun 1998. Google menarik perhatian setia antara meningkatnya jumlah pengguna Internet, yang menyukai desain sederhana Off-halaman faktor (seperti PageRank dan analisis hyperlink) dianggap serta faktor on-halaman (seperti frekuensi kata kunci, meta. tag, judul, link dan struktur situs) untuk memungkinkan Google untuk menghindari jenis manipulasi terlihat pada mesin pencari yang hanya dianggap faktor on-halaman untuk peringkat mereka. Meskipun PageRank adalah lebih sulit untuk permainan, webmaster telah mengembangkan alat bangunan link dan skema untuk mempengaruhi mesin pencari Inktomi, dan metode ini terbukti sama berlaku untuk game PageRank. Banyak situs berfokus pada pertukaran, membeli, dan menjual link, sering pada skala besar. Beberapa skema ini, atau koleksi link, melibatkan penciptaan ribuan situs untuk tujuan tunggal spamming link.

Pada tahun 2004, mesin pencari telah dimasukkan berbagai faktor yang tidak diungkapkan dalam algoritma peringkat mereka untuk mengurangi dampak dari manipulasi link. Google mengatakan peringkat situs menggunakan lebih dari 200 sinyal yang berbeda. Mesin pencari terkemuka, Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan untuk peringkat halaman. Penyedia layanan SEO, seperti Rand Fishkin, Barry Schwartz, Aaron Wall dan Jill Whalen, telah mempelajari pendekatan yang berbeda ke mesin pencari optimasi, dan telah menerbitkan pendapat mereka dalam forum online dan blog .  SEO praktisi juga dapat belajar paten diselenggarakan oleh berbagai mesin pencari untuk mendapatkan informasi tentang algoritma.

Pada tahun 2005, Google mulai personalisasi hasil pencarian untuk setiap pengguna. Tergantung pada sejarah mereka dari pencarian sebelumnya, Google dibuat hasil untuk login pengguna. Pada tahun 2008,. Bruce Clay mengatakan bahwa "peringkat mati" karena personalisasi pencarian. Ini akan menjadi tidak berarti untuk mendiskusikan bagaimana sebuah situs web peringkat, karena peringkatnya berpotensi akan berbeda untuk setiap pengguna dan setiap pencarian.

Pada tahun 2007, Google mengumumkan kampanye melawan link berbayar yang PageRank pengalihan Pada tanggal 15 Juni 2009., Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi dampak PageRank patung dengan menggunakan atribut nofollow pada link. Matt Cutts, terkenal perangkat lunak insinyur di Google, mengumumkan bahwa Google Bot tidak akan lagi memperlakukan link nofollowed dengan cara yang sama, untuk mencegah penyedia layanan SEO menggunakan nofollow untuk mematung PageRank


Sebagai hasil dari perubahan ini penggunaan nofollow menyebabkan penguapan pagerank. Untuk menghindari hal di atas, insinyur SEO mengembangkan teknik alternatif yang mengganti tag nofollowed dengan dikaburkan Javascript dan dengan demikian mengizinkan patung PageRank. Selain itu beberapa solusi telah diusulkan yang mencakup penggunaan iframe, Flash dan Javascript.

Pada bulan Desember 2009, Google mengumumkan akan menggunakan riwayat pencarian Web dari semua pengguna dalam rangka mengisi hasil pencarian.Google Instant, real-time-search, diperkenalkan pada akhir tahun 2009 dalam upaya untuk membuat hasil pencarian lebih tepat waktu dan relevan. Secara historis administrator situs telah menghabiskan bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka membuat perubahan pada algoritma mereka untuk mengizinkan konten segar untuk menentukan peringkat cepat dalam hasil pencarian.


Yahoo and Google offices


Pada 1997, search engine menyadari bahwa webmaster sedang membuat upaya untuk peringkat baik di mesin pencari mereka, dan bahwa beberapa webmaster bahkan memanipulasi peringkat mereka dalam hasil pencarian dengan isian halaman dengan kata kunci yang berlebihan atau tidak relevan. Mesin pencari awal seperti Altavista dan Infoseek, disesuaikan algoritma mereka dalam upaya untuk mencegah webmaster dari memanipulasi peringkat.


Karena nilai pemasaran tinggi hasil pencarian yang ditargetkan, ada potensi hubungan permusuhan antara search engine dan penyedia layanan SEO. Pada tahun 2005, sebuah konferensi tahunan, AIRWeb, Information Retrieval permusuhan di Web, diciptakan untuk mendiskusikan dan meminimalkan efek merusak dari penyedia konten web agresif.


Perusahaan yang menggunakan teknik terlalu agresif bisa mendapatkan website klien mereka dilarang dari hasil pencarian. Pada tahun 2005, Wall Street Journal melaporkan pada sebuah perusahaan, Power Lalu Lintas, yang diduga digunakan berisiko tinggi teknik dan gagal untuk mengungkapkan risiko untuk klien majalah Wired. Melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall untuk menulis tentang larangan. Google Matt Cutts kemudian menegaskan bahwa Google lakukan di Power Lalu Lintas Bahkan larangan dan beberapa kliennya.


Beberapa search engine juga telah mengulurkan tangan untuk industri SEO, dan sponsor sering dan tamu di konferensi SEO, chatting, dan seminar. Mesin pencari utama memberikan informasi dan panduan untuk membantu dengan optimasi situs. Google memiliki program Sitemaps untuk membantu webmaster belajar jika Google mengalami masalah mengindeks situs web mereka dan juga menyediakan data di Google lalu lintas ke situs web. Bing Toolbox menyediakan cara dari webmaster untuk mengirimkan sitemap dan web feed, yang memungkinkan pengguna untuk menentukan tingkat merangkak, dan berapa banyak halaman yang telah diindeks oleh mesin pencari mereka.

Dapat Diindeks oleh Mesin Pencari


Mesin pencari terkemuka, seperti Google, Bing dan Yahoo!, gunakan crawler untuk menemukan halaman hasil pencarian algoritmik mereka. Halaman yang terhubung dari halaman diindeks mesin pencari lainnya tidak perlu disampaikan karena mereka ditemukan secara otomatis. Beberapa mesin pencari, terutama Yahoo!, mengoperasikan layanan pengiriman dibayar yang menjamin merangkak baik untuk biaya set atau biaya per klik  


Program-program tersebut biasanya menjamin penyertaan dalam database, namun tidak menjamin peringkat tertentu dalam hasil pencarian. Dua direktori utama, Direktori Yahoo dan Open Directory  Project keduanya membutuhkan penyerahan manual dan review editorial manusia. Google menawarkan Google Webmaster Tools, yang XML Sitemap pakan dapat dibuat dan diserahkan untuk bebas untuk memastikan bahwa semua halaman yang ditemukan, terutama halaman yang tidak ditemukan dengan secara otomatis mengikuti link.  
Crawler mesin pencari dapat melihat sejumlah faktor yang berbeda ketika merangkak situs. Tidak setiap halaman diindeks oleh mesin pencari. Jarak halaman dari direktori root dari situs juga dapat menjadi faktor dalam apakah atau tidak mendapatkan halaman merangkak Selain itu, mesin pencari kadang-kadang memiliki masalah dengan merangkak situs dengan jenis konten tertentu grafis, file flash, file portable document format yang , dan dinamis konten


Preventing crawling
Robots Exclusion Standard


Untuk menghindari konten yang tidak diinginkan dalam indeks pencarian, webmaster dapat menginstruksikan laba-laba tidak merangkak file tertentu atau direktori melalui file robots.txt standar dalam direktori root dari domain. Selain itu, halaman dapat secara eksplisit dikecualikan dari database mesin pencari dengan menggunakan meta tag khusus untuk robot. Ketika sebuah mesin pencari mengunjungi situs, robots.txt yang terletak di direktori root adalah file pertama dijelajahi. 


File robots.txt ini kemudian diurai, dan akan menginstruksikan robot untuk yang halaman tidak dapat dijelajahi. Sebagai crawler mesin pencari dapat menyimpan salinan cache dari file ini, mungkin pada kesempatan menjelajah halaman webmaster tidak berharap dijelajahi. Halaman biasanya dicegah tidak ditelusuri termasuk halaman tertentu masuk seperti shopping cart dan pengguna tertentu konten seperti hasil pencarian dari pencarian internal. Pada bulan Maret 2007, Google memperingatkan webmaster bahwa mereka harus mencegah pengindeksan hasil pencarian internal karena halaman tersebut dianggap spam pencarian.


Meningkatkan keunggulan


Berbagai metode dapat meningkatkan keunggulan halaman web dalam hasil pencarian. Silang antara halaman dari website yang sama untuk memberikan link ke halaman penting yang paling dapat meningkatkan visibilitas Menulis konten itu. Mencakup frase kata kunci sering dicari, sehingga menjadi relevan dengan berbagai permintaan pencarian akan cenderung untuk meningkatkan lalu lintas. 


Memperbarui konten sehingga tetap mesin pencari merangkak kembali sering dapat memberikan bobot tambahan untuk sebuah situs. Menambahkan kata kunci yang relevan dengan meta data sebuah halaman Web, termasuk judul tag dan meta description, akan cenderung meningkatkan relevansi daftar pencarian situs, sehingga meningkatkan lalu lintas. URL normalisasi halaman web diakses melalui url ganda, menggunakan "kanonik" meta tag atau melalui pengalihan 301 dapat membantu membuat link pastikan untuk versi yang berbeda dari url semua hitungan terhadap skor popularitas halaman link.


Image search optimization


Gambar pencari optimasi adalah proses pengorganisasian isi dari halaman Web untuk meningkatkan relevansi dengan kata kunci tertentu di search engine gambar. Seperti mesin pencari optimasi, tujuannya adalah untuk mencapai daftar pencarian organik lebih tinggi dan dengan demikian meningkatkan volume lalu lintas dari mesin pencari.


Teknik pencarian optimasi gambar dapat dilihat sebagai bagian dari teknik optimasi mesin pencari yang berfokus pada mendapatkan peringkat tinggi di hasil mesin pencarian gambar.Tidak seperti proses SEO yang normal, tidak ada banyak yang harus dilakukan untuk ISO. Membuat gambar berkualitas tinggi dapat diakses oleh mesin pencari dan memberikan gambaran mengenai gambar hampir semua yang bisa dilakukan untuk ISO.


White Hat Versus Black Hat


Teknik SEO dapat diklasifikasikan menjadi dua kategori besar: teknik bahwa mesin pencari merekomendasikan sebagai bagian dari desain yang baik, dan orang-orang teknik yang mesin pencari tidak setuju. Mesin pencari berusaha untuk meminimalkan dampak yang terakhir, di antara mereka spamdexing. Komentator industri telah mengklasifikasikan metode ini, dan para praktisi yang mempekerjakan mereka, baik sebagai SEO topi putih, atau SEO topi hitam. topi Putih cenderung menghasilkan hasil yang tahan lama, sedangkan topi hitam mengantisipasi bahwa situs mereka akhirnya mungkin dilarang baik sementara atau secara permanen setelah mesin pencari menemukan apa yang mereka lakukan.


Sebuah teknik SEO dianggap putih topi jika sesuai dengan pedoman mesin pencarian 'dan melibatkan penipuan tidak ada. Sebagai pedoman mesin pencari  tidak ditulis sebagai serangkaian aturan atau perintah, ini adalah perbedaan penting untuk dicatat. SEO topi putih bukan hanya tentang mengikuti pedoman, tapi adalah tentang memastikan bahwa konten indeks mesin pencari dan kemudian peringkat adalah konten yang sama, pengguna akan melihat. Saran topi Putih umumnya disimpulkan sebagai menciptakan konten untuk pengguna, bukan mesin pencari, dan kemudian membuat konten yang mudah diakses oleh laba-laba, daripada mencoba untuk mengelabui algoritma dari tujuan yang dimaksudkan. White hat SEO dalam banyak hal mirip dengan pengembangan web yang mempromosikan aksesibilitas, meskipun keduanya tidak identik.


Black hat SEO berusaha meningkatkan peringkat dengan cara-cara yang ditolak dari oleh mesin pencari, atau melibatkan penipuan. Salah satu teknik topi hitam menggunakan teks yang tersembunyi, baik sebagai teks berwarna mirip dengan latar belakang, dalam sebuah div yang tak terlihat, atau diposisikan dari layar. Metode lain memberikan halaman yang berbeda tergantung pada apakah halaman yang diminta oleh pengunjung manusia atau mesin pencari, teknik yang dikenal sebagai cloaking.


Search engine dapat menghukum mereka menemukan situs menggunakan metode topi hitam, baik dengan mengurangi atau menghilangkan peringkat mereka listing mereka dari database mereka sama sekali. Hukuman tersebut dapat diterapkan baik secara otomatis oleh algoritma mesin pencarian , atau dengan review situs manual. Salah satu contoh terkenal adalah Februari 2006 Google pengangkatan kedua BMW Jerman dan Ricoh Jerman untuk penggunaan praktik penipuan. Kedua perusahaan, bagaimanapun, dengan cepat meminta maaf, tetap menyinggung halaman, dan telah dikembalikan ke daftar Google.


Sebagai strategi pemasaran


SEO bukan sebuah strategi yang tepat untuk setiap website, dan strategi internet lainnya pemasaran dapat lebih efektif, tergantung pada tujuan operator situs. Sebuah kampanye internet yang sukses pemasaran juga dapat tergantung pada membangun halaman web yang berkualitas tinggi untuk terlibat dan membujuk, pengaturan up program analisis untuk memungkinkan pemilik situs untuk mengukur hasil, dan meningkatkan tingkat konversi sebuah situs.


SEO dapat menghasilkan tingkat pengembalian yang memadai atas investasi. Namun, mesin pencari tidak dibayar untuk lalu lintas pencarian organik, mengubah algoritma mereka, dan tidak ada jaminan arahan lanjutan. Karena tidak adanya jaminan dan kepastian, sebuah bisnis yang sangat bergantung pada lalu lintas mesin pencari dapat menderita kerugian besar jika search engine menghentikan pengiriman pengunjung . Search engine dapat mengubah algoritma mereka, berdampak penempatan sebuah website, mungkin mengakibatkan serius hilangnya lalu lintas. Menurut Google CEO, Erick Schmidt, pada tahun 2010, Google membuat lebih dari 500 perubahan algoritma - hampir 1,5 per hari  Hal ini dianggap praktik bisnis yang bijaksana untuk operator website untuk membebaskan diri dari ketergantungan pada lalu lintas mesin pencari  


SEOmoz... org telah menyarankan bahwa "pemasar pencarian, di twist ironi, menerima bagian yang sangat kecil dari lalu lintas dari mesin pencari." Sebaliknya, sumber utama mereka lalu lintas adalah link dari situs-situs lain


Pasar Internasional


Teknik optimasi sangat sesuai untuk mesin pencari dominan di pasar sasaran. Pangsa pasar mesin pencarian 'bervariasi dari pasar ke pasar, seperti halnya kompetisi. Pada tahun 2003, Danny Sullivan menyatakan bahwa Google mewakili sekitar 75% dari semua pencarian  Di pasar di luar Amerika Serikat, saham Google adalah sering lebih besar,. Dan Google tetap menjadi mesin pencari yang dominan di seluruh dunia pada 2007. [51] Pada 2006 , Google memiliki pangsa pasar 85-90% di Jerman.  Sementara ada ratusan perusahaan SEO di AS pada waktu itu, hanya ada sekitar lima di Jerman . Pada Juni 2008, pangsa pasar dari Google di Inggris yang hampir 90% menurut Hitwise Itu pangsa pasar dicapai di sejumlah negara. 
         
Pada 2009, hanya ada beberapa pasar besar di mana Google bukan mesin pencari terkemuka. Dalam kebanyakan kasus, ketika Google tidak terkemuka di pasar tertentu, itu tertinggal pemain lokal. Pasar yang paling penting di mana hal ini terjadi adalah Cina, Jepang, Korea Selatan, Rusia dan Republik Ceko di mana masing-masing Baidu, Yahoo Jepang, Naver, Yandex dan Seznam adalah pemimpin pasar.


Pencari optimasi sukses untuk pasar internasional mungkin memerlukan terjemahan profesional dari halaman web, pendaftaran nama domain dengan domain tingkat atas di pasar sasaran, dan web hosting yang menyediakan alamat IP lokal. Jika tidak, elemen fundamental dari pencari optimasi pada dasarnya sama, terlepas dari bahasa.


Legal precedents


Pada tanggal 17 Oktober 2002, SearchKing mengajukan gugatan di Pengadilan Distrik Amerika Serikat, Western District of Oklahoma, terhadap mesin pencari Google. Klaim SearchKing adalah bahwa taktik Google untuk mencegah spamdexing merupakan gangguan menyakitkan dengan hubungan kontrak. Pada tanggal 27 Mei 2003, pengadilan mengabulkan mosi Google untuk mengabaikan komplain karena SearchKing "gagal untuk menyatakan klaim atas mana bantuan dapat diberikan."  


Pada Maret 2006, KinderStart mengajukan gugatan terhadap Google atas peringkat mesin pencari. Situs Kinderstart ini telah dihapus dari indeks Google sebelum gugatan dan jumlah lalu lintas ke situs turun 70%. Pada tanggal 16 Maret 2007, Pengadilan Distrik Amerika Serikat untuk Distrik Utara California (San Jose Divisi) diberhentikan keluhan KinderStart tanpa meninggalkan mengubah, dan sebagian diberikan gerak Google untuk Peraturan 11 sanksi terhadap pengacara KinderStart, membutuhkan dia untuk membayar sebagian dari itu hukum Google's legal expenses.
wikipedia

1 Response to "Seo Search Engine Optimization"