Apa itu Network Latency dan Bagaimana Cara Meminimalkannya

· 2 min read

Latensi adalah waktu yang dibutuhkan data untuk berpindah dari satu titik di jaringan ke titik lainnya. Misalkan Server A di New York mengirim paket d

Latensi jaringan atau Network Latency bukanlah istilah baru. Pada switch Ethernet modern, latensi jaringan memainkan peran penting dalam pengukuran kinerja, terutama untuk aplikasi komputasi terkluster dan jaringan berkinerja tinggi. Sebagian besar dari kita pernah mendengar tentang latensi jaringan, tetapi tidak tahu apa sebenarnya latensi itu. Artikel ini membahas segala hal tentang latensi jaringan - apa itu? Apa yang menyebabkan latensi jaringan? Bagaimana cara meminimalkannya pada switch Ethernet?.


Network Latency

Schema Diagram Network Latency


1. Apa itu Network Latency ?

Latensi adalah waktu yang dibutuhkan data untuk berpindah dari satu titik di jaringan ke titik lainnya. Misalkan Server A di New York mengirim paket data ke Server B di London. Server A mengirim paket tersebut pada pukul 04:38:00.000 GMT dan Server B menerimanya pada pukul 04:38:00.145 GMT. Jumlah latensi pada jalur ini adalah selisih antara kedua waktu tersebut: 0,145 detik atau 145 milidetik.

Paling sering, latensi diukur antara perangkat pengguna (perangkat "klien") dan pusat data. Pengukuran ini membantu pengembang memahami seberapa cepat halaman web atau aplikasi akan dimuat bagi pengguna.

Meskipun data di Internet bergerak dengan kecepatan cahaya, efek jarak dan penundaan yang disebabkan oleh peralatan infrastruktur Internet berarti bahwa latensi tidak akan pernah dapat dihilangkan sepenuhnya. Namun, hal itu dapat dan harus diminimalkan. Latensi yang tinggi mengakibatkan kinerja situs web yang buruk, berdampak negatif pada SEO, dan dapat menyebabkan pengguna meninggalkan situs atau aplikasi tersebut.


2. Mengapa Network Latency penting

Latensi sangat penting terutama jika menyangkut bisnis yang melayani pengunjung di lokasi geografis tertentu. Misalnya, Anda memiliki bisnis e-commerce di Chicago, dan 90% pelanggan Anda berasal dari Amerika Serikat. Bisnis Anda pasti akan diuntungkan jika situs web Anda dihosting di server di Amerika Serikat, bukan di Eropa atau Australia. Hal ini karena ada perbedaan besar antara memuat situs web dari dekat server hosting atau di seluruh dunia.


Jarak adalah salah satu alasan utama terjadinya latensi, tetapi mungkin ada faktor lain yang mencegah latensi situs web Anda tetap rendah. Berikut ini, kami akan membahas lebih rinci tentang penyebab latensi di bawah ini dan memberi Anda alat penting untuk mengetahui apakah Anda telah memilih lokasi yang tepat untuk menghosting situs web Anda.


3. Latensi vs bandwidth vs throughput

Meskipun latensi, bandwidth, dan throughput bekerja sama secara bersamaan, keduanya memiliki arti yang berbeda. Lebih mudah untuk memvisualisasikan cara kerja setiap istilah saat merujuknya ke pipa:

Bandwidth menentukan seberapa sempit atau lebar pipa. Semakin tipis, semakin sedikit data yang dapat didorong melaluinya sekaligus dan sebaliknya. Latensi menentukan seberapa cepat konten dalam pipa dapat ditransfer dari klien ke server dan kembali. Throughput adalah jumlah data yang ditransfer selama periode tertentu.

Jika latensi dalam pipa rendah dan bandwidth juga rendah, throughput akan secara inheren rendah. Namun, jika latensi rendah dan bandwidth tinggi, itu akan memungkinkan throughput yang lebih besar dan koneksi yang lebih efisien. Pada akhirnya, latensi menciptakan kemacetan dalam jaringan, sehingga mengurangi jumlah data yang ditransfer selama beberapa waktu.


4. Penyebab latensi jaringan

Apa itu latensi telah terjawab; sekarang, dari mana asal latensi? Empat penyebab utama dapat memengaruhi waktu latensi jaringan. Ini termasuk yang berikut:
  • Transmission mediums seperti WAN atau kabel serat optik memiliki keterbatasan dan dapat memengaruhi latensi hanya karena sifatnya.
  • Propagasi adalah waktu yang dibutuhkan paket untuk berpindah dari satu sumber ke sumber lain (dengan kecepatan cahaya).
  • Router membutuhkan waktu untuk menganalisis informasi header paket dan, dalam beberapa kasus, menambahkan informasi tambahan. Setiap hop yang diambil paket dari router ke router meningkatkan waktu latensi.
  • Penundaan penyimpanan (Storage delays) dapat terjadi saat paket disimpan atau diakses, yang mengakibatkan penundaan yang disebabkan oleh perangkat perantara seperti switch dan bridge.
Dari uraian di atas, salah satu penyebab utama latensi jaringan adalah jarak, khususnya jarak antara perangkat klien yang membuat permintaan dan server yang menanggapi permintaan tersebut. Jika situs web dihosting di pusat data di Columbus, Ohio, situs web tersebut akan menerima permintaan dengan cukup cepat dari pengguna di Cincinnati (sekitar 100 mil jauhnya), kemungkinan dalam waktu 5-10 milidetik. Di sisi lain, permintaan dari pengguna di Los Angeles (sekitar 2.200 mil jauhnya) akan membutuhkan waktu lebih lama untuk sampai, mendekati 40-50 milidetik.

Peningkatan beberapa milidetik mungkin tidak tampak banyak, tetapi ini diperparah oleh semua komunikasi bolak-balik yang diperlukan bagi klien dan server untuk membuat koneksi, ukuran total dan waktu muat halaman, dan masalah apa pun dengan peralatan jaringan yang dilalui data di sepanjang jalan. Jumlah waktu yang diperlukan agar respons mencapai perangkat klien setelah permintaan klien dikenal sebagai waktu perjalanan pulang pergi (RTT). RTT sama dengan dua kali lipat jumlah latensi, karena data harus berjalan di kedua arah (pergi dan kembali lagi).

Data yang melintasi Internet biasanya harus melewati tidak hanya satu, tetapi beberapa jaringan. Semakin banyak jaringan yang harus dilalui respons HTTP, semakin banyak peluang terjadinya penundaan. Misalnya, saat paket data melintasi jaringan, paket tersebut melewati Internet Exchange Points (IXP). Di sana, router harus memproses dan merutekan paket data, dan terkadang router mungkin perlu memecahnya menjadi paket yang lebih kecil, yang semuanya menambah beberapa milidetik pada RTT.


5. Cara mengurangi latensi

Latensi dapat dikurangi menggunakan beberapa teknik berbeda seperti yang dijelaskan di bawah ini. Mengurangi jumlah latensi server akan membantu memuat sumber daya web Anda lebih cepat, sehingga meningkatkan waktu pemuatan halaman secara keseluruhan bagi pengunjung Anda.
  • Menggunakan CDN: Seperti yang telah kami sebutkan sebelumnya, jarak antara klien yang membuat permintaan dan server yang menanggapi permintaan tersebut memainkan peran penting. Menggunakan CDN (contend delivery network) membantu mendekatkan sumber daya kepada pengguna dengan menyimpannya di beberapa lokasi di seluruh dunia. Setelah sumber daya tersebut disimpan di cache, permintaan pengguna hanya perlu menuju ke Point of Presence terdekat untuk mengambil data tersebut, alih-alih kembali ke server asal setiap saat.
  • HTTP/2: Penggunaan HTTP/2 yang selalu umum adalah cara lain yang sangat baik untuk membantu meminimalkan latensi. HTTP/2 membantu mengurangi latensi server dengan meminimalkan jumlah perjalanan pulang pergi dari pengirim ke penerima dan transfer paralel. KeyCDN dengan bangga menawarkan dukungan HTTP/2 kepada pelanggan di semua server edge kami.
  • Lebih sedikit permintaan HTTP eksternal: Mengurangi jumlah permintaan HTTP berlaku untuk gambar dan sumber daya eksternal lainnya seperti file CSS atau JS. Misalkan Anda merujuk informasi dari server selain milik Anda sendiri. Dalam kasus tersebut, Anda membuat permintaan HTTP eksternal yang dapat meningkatkan latensi situs web secara signifikan berdasarkan kecepatan dan kualitas server pihak ketiga.
  • Menggunakan metode prapengambilan: Prapengambilan sumber daya web tidak serta-merta mengurangi jumlah latensi. Namun, hal itu meningkatkan kinerja situs web Anda. Dengan penerapan prapengambilan, proses yang membutuhkan latensi tinggi terjadi di latar belakang saat pengguna menjelajahi halaman tertentu. Oleh karena itu, pekerjaan seperti pencarian DNS telah dilakukan saat mereka mengeklik halaman berikutnya, sehingga halaman dimuat lebih cepat.
  • Caching browser: Jenis caching lain yang dapat mengurangi latensi adalah cache browser. Browser akan menyimpan sumber daya situs web tertentu secara lokal untuk membantu meningkatkan waktu latensi dan mengurangi jumlah permintaan kembali ke server. Baca selengkapnya tentang cache browser dan berbagai arahan dalam artikel Cache-Control kami.

6. Bagaimana cara mengukur latensi jaringan?

Pada dasarnya, latensi diukur menggunakan salah satu dari dua metode:
  • Waktu perjalanan pulang pergi (RTT)
  • Waktu ke byte pertama (TTFB)
Waktu perjalanan pulang pergi dapat diukur menggunakan metode di atas dan melibatkan pengukuran waktu yang dibutuhkan antara saat klien mengirim permintaan ke server dan saat permintaan tersebut diterima kembali. Di sisi lain, TTFB mengukur waktu yang dibutuhkan antara saat klien mengirim permintaan ke server dan saat permintaan tersebut diterima byte data pertamanya. Anda dapat menggunakan alat uji kinerja kami untuk mengukur TTFB aset apa pun di seluruh jaringan kami yang terdiri dari 10 lokasi pengujian.


Mengukur latency Jaringan


Semoga artikel ini membantu menjawab pertanyaan tentang apa itu latensi dan memberikan pemahaman yang lebih baik kepada para pembaca tentang apa yang menyebabkannya. Latensi merupakan bagian yang tak terelakkan dari ekosistem jaringan saat ini dan merupakan sesuatu yang dapat kita minimalkan tetapi tidak dapat dihilangkan. Namun, saran-saran yang disebutkan di atas merupakan langkah-langkah penting yang harus diambil untuk mengurangi latensi situs web Anda dan membantu meningkatkan waktu pemuatan halaman bagi pengguna Anda. Lagi pula, di era internet saat ini, pentingnya kecepatan situs web hanya berkisar pada milidetik dan dapat bernilai jutaan dolar dalam bentuk keuntungan yang diperoleh atau hilang.
Subscribe on LinkedIn Apa itu Network Latency dan Bagaimana Cara Meminimalkannya

Enclosures Link: Apa itu Network Latency dan Bagaimana Cara Meminimalkannya

Silahkan Berkomentar, Kakak...! Bunda...!

Posting Komentar