scholarly journals IMPLEMENTASI LOAD BALANCING MENGGUNAKAN ANTRIAN ROUND ROBIN DENGAN STUDI KASUS E-SHOP

Author(s):  
Arnold Reza Geovanni

Seiring dengan perkembangan teknologi, jumlah penggunaan layanan web semakin meningkat. Hal ini menyebabkan situs-situs web popular memiliki jumlah traffic yang tinggi. Salah satu web yang populer itu adalah e-shop. Masalah yang dihadapi adalah pada saat ada kegiatan atau acara tertentu dalam e-shop juga dapat menyebabkan naiknya jumlah traffic web suatu organisasi. Salah satu solusi untuk menangani masalah tersebut adalah dengan menggunakan sebuah server yang handal dengan performa yang tinggi. Solusi lain yang dapat diterapkan adalah teknologi load balancing.  Algoritma Round robin merupakan algoritma yang paling sederhana dan paling banyak digunakan oleh perangkat load balancing. Oleh karena itu dibuatlah sebuah web untuk mengimplementasikan load balancing menggunakan antrian round robin dengan studi kasus e-shop.  Proses pengujian pada penelitian ini dihitung menggunakan pengujian QoS terdiri dari empat parameter. Yang pertama, throughput yang dihitung dan menghasilkan nilai  kbps. Kedua, delay yang didapat dari hasil perhitungan yaitu , , , dan  digolongkan kedalam kategori sangat baik untuk penggunaan transaksi pada web e-shop. Ketiga, jitter yang didapat dari hasil perhitungan yaitu  yang digolongkan kedalam kategori sangat baik untuk penggunaan transaksi pada web e-shop. Terakhir, packet loss  yang didapat dari hasil perhitungan yaitu  digolongkan kedalam kategori sangat baik untuk penggunaan transaksi pada web e-shop.

Author(s):  
Istabraq M. Al-Joboury ◽  
Emad H. Al-Hemiary

Fog Computing is a new concept made by Cisco to provide same functionalities of Cloud Computing but near to Things to enhance performance such as reduce delay and response time. Packet loss may occur on single Fog server over a huge number of messages from Things because of several factors like limited bandwidth and capacity of queues in server. In this paper, Internet of Things based Fog-to-Cloud architecture is proposed to solve the problem of packet loss on Fog server using Load Balancing and virtualization. The architecture consists of 5 layers, namely: Things, gateway, Fog, Cloud, and application. Fog layer is virtualized to specified number of Fog servers using Graphical Network Simulator-3 and VirtualBox on local physical server. Server Load Balancing router is configured to distribute the huge traffic in Weighted Round Robin technique using Message Queue Telemetry Transport protocol. Then, maximum message from Fog layer are selected and sent to Cloud layer and the rest of messages are deleted within 1 hour using our proposed Data-in-Motion technique for storage, processing, and monitoring of messages. Thus, improving the performance of the Fog layer for storage and processing of messages, as well as reducing the packet loss to half and increasing throughput to 4 times than using single Fog server.


Author(s):  
Subhranshu Sekhar Tripathy ◽  
Diptendu Sinha Roy ◽  
Rabindra K. Barik

Nowadays, cities are intended to change to a smart city. According to recent studies, the use of data from contributors and physical objects in many cities play a key element in the transformation towards a smart city. The ‘smart city’ standard is characterized by omnipresent computing resources for the observing and critical control of such city’s framework, healthcare management, environment, transportation, and utilities. Mist computing is considered a computing prototype that performs IoT applications at the edge of the network. To maintain the Quality of Service (QoS), it is impressive to employ context-aware computing as well as fog computing simultaneously. In this article, the author implements an optimization strategy applying a dynamic resource allocation method based upon genetic algorithm and reinforcement learning in combination with a load balancing procedure. The proposed model comprises four layers i.e. IoT layer, Mist layer, Fog layer, and Cloud layer. Authors have proposed a load balancing technique called M2F balancer which regulates the traffic in the network incessantly, accumulates the information about each server load, transfer the incoming query, and disseminate them among accessible servers equally using dynamic resources allocation method. To validate the efficacy of the proposed algorithm makespan, resource utilization, and the degree of imbalance (DOI) are considered as the scheduling parameter. The proposed method is being compared with the Least count, Round Robin, and Weighted Round Robin. In the end, the results demonstrate that the solutions enhance QoS in the mist assisted cloud environment concerning maximization resource utilization and minimizing the makespan. Therefore, M2FBalancer is an effective method to utilize the resources efficiently by ensuring uninterrupted service. Consequently, it improves performance even at peak times.


Author(s):  
Aulia Desy Aulia Nur Utomo

Abstract In the use of internet networks that are general in nature need to implement an appropriate network configuration to maximize the use of internet connections provided by service providers. This is important for the optimal use of internet services and in accordance with utilities that are basically general and shared can be achieved. Per Connection Classifier is a load balancing method for distributing traffic loads to more than one network connection point in a balanced way, so that traffic can run optimally. This research focuses on network configuration methods to maximize internet usage for all users. Quality of Service is used to see the performance of network traffic which is indicated by the value of the parameter delay, throughput, and packet loss. Based on the results of testing and research that have been carried out before and after using load balancing per connection clasifier, the delay value is decreased from 180.26 ms to 148.36 ms and throughput increased from 1.76% to 2.03%, then packet loss decreased from 25.37% to 18.59% according to the TIPHON standard. Keywords: Quality of Service, Per Connection Classification, load balancing, delay, throughput, packet loss


2020 ◽  
Vol 10 (4) ◽  
pp. 173-178
Author(s):  
Alfian Nurdiansyah ◽  
Nugroho Suharto ◽  
Hudiono Hudiono

Server merupakan serbuah sistem yang memberikan layanan tertentu pada suatu jaringan komputer. Server mempunyai sistem operasi sendiri yang disebut sistem operasi jaringan. Server juga mengontrol semua akses terhadap jaringan yang ada didalamnya.  Agar membantu tugas server, dibuatlah sistem mirroring server dimana server tersebut menduplikasi sebuah data set atau tiruan persis dari sebuah server yang menyediakan berbagai informasi. Mirror server atau disebut juga sinkronisasi server merupakan duplikat dari suatu server. Untuk menambah kinerja dari server maka dibutuhkan load balancer. Load balancing adalah teknik untuk mendistribusikan internet dua jalur koneksi secara seimbang. Dengan penerapan load balancing trafik akan berjalan lebih optimal, memaksimalkan throughput dan menghindari overload pada jalur koneksi. Iptables digunakan untuk memfilter IP sehigga client mengakses server sesuai dengan zona server yang paling dekat. Sehingga load balance yang dipadukan dengan iptables dapat membuat kinerja server menjadi lebih ringan. Masalah yang sering terjadi adalah ketika banyaknya client yang mengakses sebuah server maka server akan overload dan mengakibatkan kinerja server menjadi berat karena padatnya trafik. Client yang mengakses juga mendapatkan efek dari hal tersebut yaitu akses yang lama. Dari hasil penelitian tentang perpaduan antara load balance dan iptables didapati bahwa load balance dengan algoritma round robin rata-rata delay yang didapatkan untuk server1 yaitu 0,149 detik dan 0,19122. Server2 rata-rata delay yang didapatkan 0,161 detik dan 0,012 detik.


Sign in / Sign up

Export Citation Format

Share Document