Indexing 200K Plus URL Blog Konten

Pernah gak sih kalian berfikir sekali saja bagaimana caranya supaya sukses meng-index 200 ribu lebih url sebuah web? Pasti jawabannya tidak.. Iya kaaan... Sebab saat ini hanya ane yang sedang mencoba lakukan itu.


Berbicara tentang website atau blog maka otomatis berbicara mengenai isi dari web tersebut dan selanjutnya ketika berbicara mengenai konten sebuah web maka secara langsung salah satu pointnya adalah tentang index konten. Menulis, mmenyiarkan dan membaca ulang sebuah artikel karya bukan sebab berhasilnya karya tulis tersebut terdaftar apda list halaman yang disimpan google.

Pun begitu, bilapun sudah mengikutialur "biasanya" dengan submit sitemap ke google search console belum tentu url dari konten tersebut dirayapi apalagi sampai ditampilkan apda halaman index pencarian google search.

Banyak perjuangan tak kenal lelah harus dilakukan hanya demi memuluskan proses dan hasil dari index google ini. Percuma berbicara SEO ONPAGE dan SEO OFF PAGE kalau konten karya tulisnya sendiri tidak pernah terindex di google search. Saya rasa cukup login bukan?

Hari ini, ya, tepat beberapa menit sebelum tulisan ini di publikasi. Sayalah orang yang mencoba lakukan indexing url list lebih dari 200k. Kalau saja tidak ada bahasa pemrograman mungkin saya sudah mati berdiri masukin satu persatu sebanyak itu. Alhamdulillah dengan bantuan bahasa XML saya cukup mengenalkan satu alamat saja ke search console dan url lainnya otomatis terbaca bot google.

Apakah keindex? Belum gan, baru masuk ke daftar di search console, masuk daftar waiting list.

Hari kemarin sebenarnya sudah saya coba lakukan namun karena ada kesalahan pada penulisan peta situs jadinya saya hapus lagi itu peta situs dan baru sekarang berhasil di tulis ulang kode peta situsnya dan dikasih deh ke search console. Alhamdulillah sejauh ini dari perkenalan antara domain web saya dengan search console belum memberikan sinyal tanda - tanda ada masalah, masih aman terkendali.`

Salut luar biasa, 207 ribu lebih url langsung terbaca dalam waktu tidak kurang dari 5 menit.

Ada satu point penting dari kejadian 5 menit tersebut. Poitnya adalah selalu gunakan resource yang memadai untuk melakukan apapun. Maksudnya bagaimana?

Sebelumnya saya pernah membuat index url tak lebih dari 15 ribu single konten namun gagal. Tidak lebih dari 4 jam langsung servernya amburadul, down, dan mati kutulah saya.

Sebabnya tiada hal lain selain karena menggunakan hosting gratisan dengan resource memory kecil hanya 512Mb dan pembatasan load CPU juga bandwidth yang disediakan.

Dilihat dari perbandingan antara kejadian 5 menit sebelum ini dan yang itu, saya dapat menyimpulkan bahwa MEMORY dan BANDWIDTH berperan besar dalam proses indexing ini.

Terbukti sebelumnya juga pernah index 10k artikel wordpress tidak lebih dari 7 hari sudah terdaftar semua di SERPnya google. Alhamdulillah yaks... traffic langsung datang namun sayang lagi-lagi karena percobaan menggunakan gratisan makan kena lagi dengan kelebihan load CPU, di suspend lagi itu hosting.

Pada indexing 200k lebih url kali ini saya gunakan VPS dengan Memory 6 Giga dan Bandwidth 10Giga realtime dan dukungan OPENVZ. Saya yakin dengan resource sebesar ini akan mampu menampung proses peng-index-an bot google namunkendalanya adalah masih sama yaitu menggunakan domain gratisan.

Jadi, pun  bila berhasil terindex semua dan traffic berdatangan insyaalloh nama domainnya bakalan diminta kembali sama yang mpunya dan sia - saia 200k lebih index url ini.

Saya gak akan menyesali ketika itu terjadi. Saya anggap ini percobaan serius artinya coba menghasilkan ribuan dolar dari proses index kali ini. Mudah - mudahan domainnya bisa awet sampai satu tahun saja itu sudah cukup buat cari modal beli domain dan perbesar kapasitas VPS.

Next, akan saya update mengenai perkambangan hasil indexing 200k lebih url ini.

Comments

Popular posts from this blog

Auditing systemd : How To Solving Failed Units with Systemctl Centos 7

Basic Cat Command Examples in Linux