Pertimbangan SEO saat bermigrasi ke kerangka kerja JavaScript
Diterbitkan: 2022-04-19Setiap pembaruan atau perubahan besar pada situs web Anda harus selalu dilakukan dengan pertimbangan SEO yang kuat. Dari kesalahan robots.txt, hingga pengalihan halaman yang diterapkan dengan buruk, terlalu mudah untuk melihat peringkat pencarian Anda menghilang – secara harfiah – dalam semalam.
Hal ini juga berlaku saat memigrasikan situs web Anda ke kerangka kerja JavaScript. Dengan beberapa perencanaan yang cermat, Anda dapat memastikan situs Anda tetap terlihat oleh robot mesin telusur, menghindari risiko dan perangkap umum yang menyebabkan hilangnya lalu lintas, dan mempersiapkan situs Anda untuk pertumbuhan yang berkelanjutan di masa mendatang.
Ini adalah masalah besar dan kompleks dengan banyak detail teknis yang perlu diingat selama migrasi situs web Anda. Namun, ada beberapa kesalahan umum yang harus dihindari serta beberapa prinsip menyeluruh yang dapat membantu memandu Anda ke arah yang benar.
Berikut adalah beberapa masalah SEO teratas saat bermigrasi ke kerangka kerja JavaScript.
Pertahankan URL penting
Googlebot dan perayap mesin telusur lainnya mengaitkan konten situs web dengan URL – begitulah cara mereka menautkan ke Anda dari hasil penelusuran mereka – tetapi kerangka kerja JavaScript dapat memutuskan ikatan antara URL statis dan konten dengan memperbarui laman secara dinamis.
Hal ini terutama berlaku untuk Aplikasi Halaman Tunggal (SPA) yang memerlukan perlakuan khusus untuk memastikan bahwa setiap URL penting dari situs web sebelumnya dipertahankan dan tetap terlihat oleh Googlebot, untuk melindungi keberadaan Anda yang ada di SERP.
Jangan tertipu jika beranda Anda masih muncul di peringkat yang seharusnya – ini bisa menjadi tanda bahwa Google berhasil merayapi beranda SPA Anda tetapi gagal menemukan konten yang disajikan secara dinamis di sisi klien.
Aktifkan akses perayap
Ini lebih dari sekadar membuka blokir perayap mesin telusur di file robots.txt Anda. Anda membutuhkan mereka untuk dapat merayapi situs Anda dan melihat konten Anda – dan untuk itu, kemungkinan Anda memerlukan beberapa bentuk rendering sisi server.
Dengan menerapkan rendering atau pra-render sisi server, Anda memberikan robot pencari versi konten Anda seperti yang muncul setelah JavaScript apa pun dijalankan, menghilangkan beban sumber daya untuk meminta robot merender konten halaman itu sendiri.
Ini tidak hanya membuat setiap halaman terlihat oleh perayap, tetapi juga dapat meningkatkan jumlah halaman dan tingkat hierarki situs web Anda yang diindeks, dengan mengurangi permintaan pada anggaran perayapan robot per halaman.
Tingkatkan kemampuan perayapan
Anda dapat lebih membantu robot dengan menyajikan informasi dengan cara yang mudah dicerna. Pikirkan hal ini saat mengimplementasikan kemampuan JavaScript seperti event onclick dan pagination scrolling tanpa batas.
Dengan mengingat apa yang sebenarnya dapat dilakukan robot, Anda dapat memastikan bahwa konten Anda dapat dilihat oleh mereka dalam kemampuan tersebut. Sebagai imbalannya, lebih banyak konten Anda kemungkinan akan dirayapi, diindeks, dan diberi peringkat.
Bonus tambahannya adalah dengan membuat versi ramah perayap dari situs web Anda, Anda juga dapat meningkatkan aksesibilitas untuk beberapa pengunjung manusia, yang mungkin tidak memiliki JavaScript yang berfungsi di perangkat mereka ketika mereka mengunjungi situs Anda.
[Studi Kasus] Tingkatkan visibilitas dengan meningkatkan kemampuan perayapan situs web untuk Googlebot
Arahkan ulang URL lama
Jika Anda tidak berencana untuk mempertahankan URL lama persis seperti aslinya, tetapi Anda memiliki keberadaan pencarian yang kuat, pertimbangkan untuk menerapkan pengalihan permanen untuk mengarahkan robot ke padanan yang paling cocok di dalam peta situs baru Anda.
Ini mempertahankan otoritas domain dan dapat melindungi peringkat Anda, setidaknya sampai konten yang baru diterbitkan sepenuhnya dirayapi dan diindeks, di mana Anda mungkin atau mungkin tidak memutuskan untuk menghapus pengalihan yang lebih lama, jika halaman lama tersebut tidak lagi menghasilkan lalu lintas yang signifikan.
Gunakan tautan internal yang konsisten
Sekali lagi, ini tentang pemuatan konten secara dinamis. Kerangka kerja JavaScript dapat mengeluarkan beberapa kemampuan keren, seperti kemampuan untuk menarik data dari sumber daya eksternal dan menggunakannya untuk memperbarui halaman saat ini, daripada menavigasi ke URL yang berbeda.
Untuk SEO, lebih baik menjaga konten relatif statis dan memuat URL yang berbeda saat mengubah halaman secara substansial. Perayap memahami pendekatan ini dengan lebih baik, dapat memetakan situs web Anda dengan lebih baik secara keseluruhan, dan lebih cenderung mengunjungi dan menafsirkan laman baru dengan benar.
Disiplin yang buruk pada penautan internal adalah perangkap utama dari banyak migrasi. Ini dapat membuat beberapa halaman jauh lebih sulit bagi robot untuk dijelajahi dan mengirimkan sinyal yang membingungkan tentang kepentingan relatif beberapa halaman, dibandingkan dengan yang lain.
Pentingnya konsistensi
Di luar tautan internal, cobalah untuk konsisten tentang semua sinyal yang Anda kirim ke mesin pencari. Ini terutama benar jika situs web Anda hanya memuat sebagian kontennya melalui kerangka kerja JavaScript, karena Anda harus memastikan halaman JavaScript dimuat dan berfungsi serupa dengan halaman HTML atau PHP di situs Anda.
Contohnya dapat mencakup penyelesaian URL dengan dan tanpa garis miring (apakah penyelesaian ini atau pengalihan harus konsisten di semua area situs web Anda), serta praktik terbaik SEO seperti menerapkan tag kanonik (yang sekali lagi harus konsisten dalam hal mana konten dianggap kanonik).
Mencegah lebih baik daripada mengobati, terutama yang berkaitan dengan peringkat pencarian. Jadi, cobalah untuk memahami tidak hanya bagaimana konten ditampilkan di situs web Anda, tetapi juga bagaimana konten itu ditampilkan, apakah itu dengan rendering sisi klien atau sisi server – dan apakah migrasi Anda ke JavaScript akan memengaruhi visibilitas konten di situs web Anda, saat berikutnya dirayapi.
[Studi Kasus] Jauhkan desain ulang Anda dari menghukum SEO Anda
Apakah ini akan berubah?
Render dinamis bukanlah teman SEO karena sifat robot pencari yang relatif sederhana. Di masa mendatang, kami mungkin melihat Googlebot yang lebih kompleks dan mampu yang dapat mengatasi beberapa masalah ini, tetapi untuk saat ini, webmaster bertanggung jawab untuk menyajikan konten dengan cara yang paling dapat dimakan.
Hal ini berlaku di seluruh perencanaan, penerapan, dan pengelolaan situs web apa pun yang bergantung pada keberadaan pencarian. Tapi itu sangat penting selama pembaruan besar, peningkatan dan migrasi, termasuk migrasi ke kerangka JavaScript.
Dengan mengingat beberapa jebakan dan praktik terbaik yang diuraikan di atas, Anda dapat menjaga ambisi SEO Anda di garis depan migrasi situs web Anda dan menghindari skenario mimpi buruk karena situs web besar yang menguntungkan menghilang dari SERPs dalam semalam.