Powered by Blogger.
facebook twitter instagram pinterest bloglovin Email

Yasya Indra Blog

Éclairage et ingénierie

 

Ada kalanya kita ingin sekali download dataset dari Kaggle namun ingin langsung tersedia di dalam Google Drive kita. Namun bagaimana caranya ya?

Caranya memang tidak sederhana dan (kalo boleh jujur) sangat rumit dan tricky

Namun jika kalian ingin mencobanya, saya akan membagikan caranya dibawah

 

Baca Juga: Cara Menggunakan Google Colaboratory

Langkah Langkah

Pertama buat notebook dengan Google Colab kalian di Drive

Masukkan perintah berikut

!pip install opendatasets
import opendatasets as od'

Perintah tersebut berguna untuk menginstall library opendatasets sekaligus mengimport library tersebut

Jika sudah masukkan kode di bawah

from google.colab import files
files.upload()

Colab akan meminta kita untuk memasukkan file, file ini merupakan file json yang berisi key username dan password dari Kaggle cara mendapatkannya adalah dengan

  • Login Kaggle
  • Buka Account
  • Klik Create New API Token
  • Otomatis akan mendownload file json bernama kaggle.json

upload file tersebut

Masukkan kode dibawah

!ls -lha kaggle.json
!pip install -q kaggle # installing the kaggle package
!mkdir -p ~/.kaggle # creating .kaggle folder where the key should be placed
!cp kaggle.json ~/.kaggle/ # move the key to the folder
!pwd # checking the present working directory

Lalu Run pada kernel, dan masukkan kode dibawah pada kernel baru

!chmod 600 ~/.kaggle/kaggle.json

Run. Masukkan kode dibawah

!kaggle datasets list

Run. Akan muncul beberapa dataset yang bisa digunakan. Tapi kalo kalian mau pake dataset yang kalian inginkan dari website Kagglenya langsung caranya adalah dengan melihat urlnya dan masukkan nama dataset yang tertera disana

Lalu masukkan nama dataset diatas pada perintah berikut

!kaggle datasets download -d mczielinski/bitcoin-historical-data -p 'path google drivemu pastikan ada di dalam tanda kutip'

File yang kita download masih berupa zip, maka kita harus mengekstraknya ke dalam folder baru

!unzip '/path/datasets.zip' -d '/path/folderbaru'

Selesai

Kalian bisa melihatnya sendiri pada folder drive kalian


 

Kalian pun bisa melihat kode diatas lebih lengkap di dalam Github Gist yang sudah saya buat disini

Share
Tweet
Pin
Share
No comments

 

Natural Languange Processing merupakan sebuah kemampuan machine learning untuk menebak dan menganalisa sebuah kalimat

Konsepnya sederhana dimana kita menjadikan tiap kata sebagai array lalu mencocokinya dengan kata kata yang memiliki konotasi negatif dan positif

Tentu metode sesederhana ini akan memberikan hasil yang sangat kasar, akan tetapi setidaknya kita bisa menerapkah langkah langkah NLP agar bisa memahami konsep NLP itu sendiri bekerja

Sebenarnya apa aja sih Langkah Langkah NLP ini?

NLP memiliki langkah langkah sebagai berikut

  • Tokenizing, mengubah kata kata menjadi array
  • Stemming, menghilangkan imbuhan dari kalimat
  • Lemmatization, menjadikan kata kata dasar menjadi bentukkata yang lebih mudah dianalisis
  • Parsing, mencocokkan tweets/kalimat dengan wordlist yang sudah diambil

Pertanyaannya bagaimana cara kita menerapkan langkah langkah di atas dalam bentuk codingan? Simak ya caranya dibawah

Case Study

Cari tahu apakah tweet dari Ridwan Kamil  memiliki sentimen negatif atau positif menurut langkah langkah di atas

Langkah Langkah

Pertama kita harus mengambil tweet dari Pak Ridwan Kamil. Kalian harus memiliki akun Twitter Developer dulu untuk memiliki api_key sehingga kalian bisa bebas mengambil tweet manapun.

Jika kalian sudah memiliki akun Twitter Developer, kalian bisa mencontek script yang sudah saya buat disini

Jangan lupa untuk menginstall package Python

pip install tweepy pandas configparser 

Buat file main.py dan tulis kode berikut

import configparser
import tweepy
import pandas as pd

config = configparser.ConfigParser()
config.read('config.ini')

api_key = config['twitter']['api_key']
api_key_secret = config['twitter']['api_key_secret']

access_token = config['twitter']['access_token']
access_token_secret = config['twitter']['access_token_secret']

# authenticate
auth = tweepy.OAuthHandler(api_key, api_key_secret)
auth.set_access_token(access_token, access_token_secret)

api = tweepy.API(auth)

tweets = api.user_timeline(screen_name='ridwankamil',
                           # 200 is the maximum allowed count
                           count=60,
                           include_rts = False,
                           # Necessary to keep full_text
                           # otherwise only the first 140 words are extracted
                           tweet_mode = 'extended'
                           )

with open('tweets.txt', 'w') as f:
    for info in tweets:
        f.write(info.full_text)
        print("\n")

buat file config.ini yang memiliki isi seperti berikut

[twitter]

api_key =
api_key_secret =
access_token =
access_token_secret =  

Masukkan apikey kalian disana

Jika sudah, maka jalankan perintah py main.py Lalu kalian akan menjumpai terdapat file tweets.txt yang merupakan hasil

 

Lalu buat file baru benama predict.py yang bertugas untuk memberikan hasil sentimen negatif dan positif. Kalia bisa melihat kode dibawah

from Sastrawi.Stemmer.StemmerFactory import StemmerFactory
factory = StemmerFactory()
stemmer = factory.create_stemmer()

def open_txt(txt):
    data = open(txt, 'r')
    return data.read()

def turn_to_array(text):
    tokenized = []
    
    if '\n' in text:
        for word in text.split('\n'):
            tokenized.append(word)
    else:     
        for word in text.split(' '):
            tokenized.append(word)

    return tokenized

def parsing_both_words(text, neg, pos):
    sentiment = {"negative": 0, "positive": 0}    
    for i in text:
        for j in neg:
            if i == j:
                sentiment["negative"] += 1
        for k in pos:
            if i == k:
                sentiment["positive"] += 1
                
    return sentiment

tweets = open_txt('tweets.txt')
neg_word = open_txt('wordlist/negative.txt')
pos_word = open_txt('wordlist/positive.txt')

# Stemming
stemmed_tweets   = stemmer.stem(tweets)

# Tokenization
tokenized_tweets = turn_to_array(stemmed_tweets)
tokenized_neg_words = turn_to_array(neg_word)
tokenized_pos_words = turn_to_array(pos_word)

# Parsing
counted_words = parsing_both_words(tokenized_tweets, tokenized_neg_words, tokenized_pos_words)

def please_percentage(count, neg, pos):
    total = round(count/count * 100)
    positive = round(pos/count * 100)
    negative = round(neg/count * 100)
    
    return {"total": f"{total}%","positive":f"{positive}%","negative":f"{negative}%"}
    
percentage = please_percentage(len(tokenized_tweets), counted_words['negative'], counted_words['positive'])

print("Tweet Pak Ridwan memiliki sentimen buruk" if percentage['negative'] > percentage['positive'] else "Tweet Pak Ridwan memiliki sentimen baik")

Jangan lupa juga untuk menginstall Sastrai dengan perintah berikut

pip install PySastrawi 

Lalu kalian juga harus memiliki wordlist yang berisi kata kata sentimen negatif dan positif yang bisa kalian download disini

Jika sudah kalian masukkan perintah py predict.py dan akan muncul tulisan berikut

 



  Sourcecode: Github

Share
Tweet
Pin
Share
No comments

 

Kalian pasti pernah kesusahan ketika ingin membaca satu bagian saja dalam isi blog. Biasanya karena blog tersebut memiliki tulisan yang banyak dan kita ga punya banyak waktu untuk membaca seluruh isinya

Maka dari itu sebagian blog juga memberikan daftar isi agar pembaca bisa langsung membaca inti tulisan yang dia inginkan.

https://penerbitdeepublish.com/metodologi-penelitian/
 

Ini juga bisa meningkatkan SEO blog tersebut, karena dianggap bisa ramah pembaca.

Namun ada beberapa kesulitan ketika membuatnya, terkadang kita capek untuk memberikan id pada tag tulisan blog kita. Tentu ini akan membosankan dan ribet, apalagi kalo kalian harus menulis lebih dari satu tulisan setiap harinya

Ada kah cara yang sederhana?

Ada, postingan ini akan menjelaskan tutorial cara membuat Daftar Isi dengan lebih otomatis

Baca Juga:  Option Group adalah Alternatif Penggunaan Dependant Dropdown List 


Daftar Isi

Konsep

Saya memanfaatkan sesuatu yang disebut dengan Javascript DOM, dimana saya menyeleksi Heading yang memiliki tag <h2>, lalu tag tag heading ini saya looping ke dalam HTML. Ini memungkinkan meskipun kita mengubah isi Heading, daftar isi juga akan berubah secara otomatis.

Langkah Langkah

1. Buat Heading

Pastikan ketika kalian menulis blog, kalian memberikan heading pada tulisan. Contohnya pada postingan ini kalian bisa melihat saya memberikan Heading pada Langkah Langkah. Tentu kalian akan memiliki lebih dari satu Heading.

Heading ini memiliki tag <h2> yang oleh script javascript sudah terseleksi. Maka dari itu pastikan kalian membuat Heading sesuai kebutuhan kalian

Kalian bisa membuat heading dengan memblok tulisan dan menekan Heading pada Tab diatas

Setidaknya kalian akan membuat postingan dengan struktur mirip seperti berikut

2. Pastekan code <div class="content"></div>

Masukkan kode diatas pada posisi yang kalian inginkan pada postingan kalian. Caranya dengan mengubah mode tulisan ke dalam HTML View, lalu pastekan di tempat  yang kalian inginkan.

Saya akan meletakkan kode ini dibawah tulisan Daftar Isi


3. Pastekan kode javascript pada HTML pada postingan blog

Kalian buka postingan dalam HTML View, lalu pastekan kode berikut

<script>

const content = document.querySelector('.content')
const ul = document.createElement('ul')
const allHeadings = document.querySelectorAll('h2')

allHeadings.forEach(item => {
    const li = document.createElement('li')
    const a = document.createElement('a')

    item.setAttribute('id', item.innerHTML)
    a.setAttribute('href', `#${item.innerHTML}`)
    a.innerHTML = item.innerHTML

    li.append(a)
    ul.append(li)
})

content.append(ul)

</script>

Letakann di paling bawah. Sehingga hasilnya akan terlihat seperti berikut


Supaya tampilannya lebih dinamis, kita juga bisa memberikan fitur dimana ketika kita mengklik daftar isi tersebut ia akan langsung menggeser dengan halus

Caranya kalian pilih Theme, lalu klik tanda segitiga dan pilih Edit HTML


 

Kalian akan melihat sourcecode blog kalian. Cari body { Lalu kalian tambahkan kode berikut

html {
  scroll-behavior: smooth;
}

dibawah tagnya

Contoh seperti ini

 

Contoh pada tulisan saya yang berjudul Review Kali Linux Versi 22.4, OS Sakti Untuk Hacking + Cara Install Ketika kita lihat hasilnya maka secara otomatis script tersebut akan membuatkan daftar isi sesuai dengan heading heading yang kita buat sekaligus scrolling otomatis yang smooth

Kesimpulan

Untuk membuat daftar isi pada tulisan blog, kita memanfaatkan kode javascript dan html sederhana. Membubuhkannya pada postingan, dan secara otomatis ia script tersebut akan menyeleksi apa aja heading yang kita buat

Sourcecode: Github

Share
Tweet
Pin
Share
No comments

Duduk di bangku SMK merupakan masa keemasan. Pada waktu itu saya menjajal beberapa skill yang menyenangkan seperti editing video, directing short movie, mengkonfigurasi jaringan, sedikit ngoding (cuman tahu HTML pada saat itu) dan paling bikin saya masih penasaran hingga detik ini adalah hacking

Kebetulan saat itu saya mempunya beberapa teman yang dulu pernah pengalaman terhadap dunia yang sering dianggap illegal dan jahat ini. Kebanyakan dari mereka menyarankan saya untuk mempelajari Linux karena itu merupakan senjata untuk mempelajari materi lain yang lebih dalam tentang komputer sains.

Tentu saya tertarik apalagi saya punya ancang ancang setelah lulus SMK yaitu saya ingin melanjutkan kuliah

Salah satu yang menarik perhatian saya adalah Kali Linux, OS favorit yang digunakan oleh para hacker

Saya sampai nyolong nyolong keluar pondok buat beli buku Kali Linux ini

edgy pada zamannya

Beberapa tahun kemudian saya penasaran dengan OS satu ini dan mencobanya pada VMWare bernama Virtual Box, lalu berfikiran kenapa ga saya review aja di blog ya

Baca Juga: Belajar CTF Hanya Menggunakan Windows 7 - Web Exploitation  

Berikut reviewnya, dan tulisan ini akan merangkum beberapa poin seperti

 


Apa Itu Kali Linux? 

Kali Linux merupakan Operating System yang berjalan pada kernel Linux yang didesain untuk melakukan penetration testing, ethical hacking dan kegiatan kegiatan network engineering lainnya

Kali Linux terkadang sering disalah fahami untuk melakukan segala kegiatan hacking hacking illegal, mungkin karena representasi dari film film hollywood yang menampilkan para hacker menggunakan Kali Linux dalam jalan ceritanya

Namun tujuan utama Kali Linux diciptakan adalah untuk menguji apakah sebuah jaringan memiliki sisi vulnerabilitas sehingga bisa diperbaiki agar tidak diserang hacker jahat kedepannya
 
 
scene dari serial Mr Robot

Konsep

Kali Linux merupakan turunan dari OS Debian yang dulu juga saya pernah gunakan untuk mengkonfigurasi jaringan server client biasa pada jaringan. Kali Linux juga memanfaatkan sesuatu pada Debian, namun bedanya ia sudah tertanama banyak sekali tool yang bisa dimanfaatkan untuk segala aktifitas hacking

Yang kita harus lakukan setelah menginstalnya di Virtual Box adalah dengan mengupdate repo dengan perintah sudo apt-get update proses ini memakan waktu cukup lama (tergantung dari kecepatan internet kalian)

penampakan Kali Linux pada virtual machine

melakukan update repo pada Kali Linux, hal yang wajib dilakukan at least seminggu sekali
 
Saya menyarankan kalian supaya menginstall Kali Linux ini pada Virtual Box, karena lebih mudah dan tidak perlu capek capek harus menimpa OS host kalian berupa Windows 11 / macOS sehingga menganggu kegiatan kalian sehari hari

Namun kalian harus menambah semacam Wireless USB Adapter yang didesign untuk penetration testing, karena kalo Wireless USB biasa ga akan bisa dan berpengaruh pada performa terhadap tools wireless yang kita gunakan
 
Baca Juga: Yang Harus Dilakukan Setelah Instal Kali Linux (Atau Semua Varian Linux)

Saya sendiri masih menggunakan Wireless USB biasa sih, saya belum sampai melakukan praktek penetration testing terhadap website atau jaringan lokal. Hanya sekedar menjajal satu persatu tool yang disediakan dalam OS ini

Wireless USB dari setup box

Studi Kasus

Saya membuka sedikit buku Kali Linux diatas dan saya ingi melihat interface jaringan saya. LAN maupun WLAN. Caranya dengan memasukkan perintah ifconfig

Disana terlihat interface jaringan apa saja yang bisa kita gunakan. Tentu kita akan menggunakan interface wireless bernama wlan0


Saya akan sedikit saja mendemonstrasikan cara scanning menggunakan OS ini menggunakan nmap

caranya dengan memasukkan perintah nmap <ip address> -Pn
 
Saya akan memasukkan ip address laptop host saya sendiri sebagai contoh


Disana terlihat ada beberapa port yang terbuka dengan nama servicenya. 

Kalian juga bisa menjadikan ip laptop kalian sebagai contoh
Cara mencari tahunya adalah dengan masuk ke dalam CMD dan ketikan perintah berikut
 
ipconfig /all
 
Maka akan muncul hasil seperti berikut

 Lalu masukkan ip yang berada di samping IPv4 Address
 

Sumber Belajar

Jika kalian ingin mempelajari Kali Linux lebih lanjut kalian bisa membaca buku Kali Linux 300% Attack terbitan Jasakom, namun sekarang keliatanya sudah langka

Atau kalian bisa coba tonton channel Hackersploit atau forum Kali Linux resmi di websitenya

Yang terpenting sebenarnya bukan seberapa banyak kalian membaca atau mengikuti tutorial, namun seberapa sering kalian menerapkan hal yang sudah kalian pelajari ke dalam praktek sehari hari

Coba terus eksplor kemampuan kalian menggunakan Linux secara umum, eksplor juga tools tools yang ada di dalamnya. 


Kekurangan dan Kelebihan

Kekurangan Kali Linux sendiri adalah ia kemampuan OS ini sangat terbatas untuk tugas komputasi sehari hari seperti mengetik, browsing, mengprint, dan lain sebagainya. OS ini memang tidak cocok untuk hal semacam itu, maka lebih baiknya kalian menginstall Kali Linux ini di dalam Virtual Machine

Kelebihannya, tentu Kali Linux ini merupakan OS yang nyaman bagi kalian yang mau eksplor ilmu per-hackingan. Daripada kalian install aplikasi ga jelas tentang hacking di Windows yang notabenenya sangat terbatas untuk segala kemampuan hacking dsb. Lebih baik langsung saja mempelajari Kali Linux ini sebagai persenjataan kalian untuk menembus jaringan atau website yang kalian gunakan

Cara Installl

Saya sarankan kalian jangan mendownload file ISO dan menginstallnya mentah mentah pada VM kalian. Mengapa? yang saya rasakan banyak sekali error saat installasi. Lebih baik kalian mendownload file OVA yang sudah disediakan dalam situs resminya. Linknya disini


Setelah itu buka Virtual Box kalian dan klik New, 


Lalu beri nama Kali Linux dan letakkan lokasi penginstalan sesuai keinginan. Saya biasanya meletakannya selain local c

 
 
Lalu sesuaikan ukuran RAM virtual yang dibutuhkan saya menyarankan minal 4000 MB agar Kali Linux bisa berjalan lancar

Lalu pilih file vdi yang sudah kita download barusan dari website resmu Kali Linux
 
 
 Lalu klik Create

Jika sudah makan Kali Linux akan terinstall dan kita diminta untuk memasukkan username dan password root. Masukkan username kali, dan password kali

Oh iya saya tidak bertanggung jawab atas segala penyalah gunaan Kali Linux ini. Gunakan ilmu yang sudah saya share disini sebijak bijaknya

Share
Tweet
Pin
Share
No comments

 

Mau cerita dikit tentang beberapa minggu lalu sebelum UTS, dosen saya memberikan tugas untuk membuat aplikasi fuzzy menggunakan MATLAB, namun ia meminta seluruh mahasiswa untuk mengambil data real dari tempat sekitar kita

Beberapa ada yang mengambil datasets dari tempat dagangan orang tuanya, beberapa dari data presetasi sekolah, dll

Berhubung saya malas untuk mencari tahu hal semacam itu, akhirnya saya memutuskan untuk mengambil data dari Kaggle. Lah toh, bukankah itu fungsi utama dari Kaggle? Kita bisa mencari dataset dari manapun dari seluruh dunia tanpa harus keluar rumah

 Daftar Isi


Seputar Kaggle

Meskipun keabsahan dataset dari Kaggle sendiri masih dipertanyakan setidaknya kita ga perlu lagi nulis ribuan baris dan kolom untuk menganalisa, membuat model, dan prediksi dari data data tersebut

Saya pun mengambil data berikut untuk saya jadikan contoh dataset agar selanjutnya bisa digunakan pada aplikasi MATLAB. Kalian bisa klik ini untuk mendownnloadnya


 

Kenapa saya mengambil data diatas? karena lebih familiar di telinga orang awam (baca: dosen) dan lebih mudah apabila saya jabarkan kepada teman teman,

"Eh, lu pake data dari mana?"

"Dataset ecommerce gitu", jawab saya

Semuanya pilihan sih, kemarin saya perhatikan ada beberapa orang yang menggunakan data real dari dagangan di sekitar rumah mereka. Kalo saya jadi mereka mungking tugas ini ga bakal selesai, keburu saya kalah sama rasa malas saya xixixixi

Detail Tugas

Tugas yang diberikan sih sederhana kami diminta untuk membuat model matematis dari sistem fuzzy. Sistem fuzzynya sendiri sudah diajarkan di pertemuan sebelumnya dan di pertemuan ini kami hanya ditugaskan untuk mengganti datasetnya saja. Itu saja

Isi Materi Pertemuan Itu: Cara Membuat Program Fuzzy Menggunakan MATLAB. Studi Kasus: Persediaan dan Permintaan Penjualan Kambing

Jadi ga ada yang susah sebenarnya sampai pada akhirnya saya berhadapan dengan banyaknya data. 

Saya harus menganalisanya sendiri menggunakan python dan dan mencari tahu apa saja yang bisa saya gunakan

Saya harus membersihkan datanya dari kolom kolom string, dan melakukan labelling. Menyenangkan sebenarnya sampai terjadi error terus terusan

Sebenarnya menganalisa datasets seperti ini bukanlah termasuk bagian dari tugas. Apalagi dinilai, sebenarnya saya hanya ingin mencoba untuk menggali lebih dalam apa saja insight yang saya bisa dapatkan dari sebuah datasets

Kalo kalian membaca postingan saya sebelumnya, disana dijelaskan bahwa model fuzzy itu harus memiliki variabel dan parameter sebagai input-annya. Disini saya mencarinya secara manual dan menerapkan logika yang digunakan pada tabel itu

Kalian bisa melihat jerih payah saya melakukan codingan disini

Langkah Langkah

Saya harus mengimportnya menggunakan Pandas

Lalu menghilangkan kolom ID karena ia sama sekali tidak menggambarkan bagaimana kita membaca data data yang ada

Lalu saya juga memilah data data ini berdasarkan waktu bulan dan tahun

bulan dan tahun transaksi saya ambil dari tanggal invoice yang diterima. Menurut saya sah untuk mengasumsikan pembeli mendapatkan invoice pada bulan dan tahun yang sama pada pembelian

Setelah itu saya juga mengambil quantity pada tiap tiap bulan, karena apa? karena ini merupakan core dari prediksi model ini. Quantity berperan penting untuk menentukan berapakah prediksi untuk jumlah prediksi kedepannya


Lalu saya mencari jumlah penjualan yang terjadi pada tiap tiap bulan dengan menghitung ada berapa invoice yang terjadi pada setiap bulannya

Baca Juga: Membuat Program Fuzzy Dengan Python. Studi Kasus: Prediksi Penyakit Demam

Lalu jadilah tabel seperti berikut


Tentu saya harus memindahkan output print satu persatu ke dalam Google Sheets, saya belum menemukan cara untuk mengeksportnya secara otomatis

Lebih lengkapnya kalian bisa melihat kode yang saya tulis disini

Kesimpulan

Lain kali kalo disuruh bikin model machine learning dari dosen kalian. Apapun. Maka carilah datasets dari Kaggle lalu olah sendiri menggunakan Python yaitu dengan mengambil data data yang bisa dimanfaatkan dari sana

Share
Tweet
Pin
Share
No comments

 
 
Ketika kita membuat sebuah model machine learning terkadang kita berfikir bagaimana model ini bisa diaplikasikan di dunia nyara sehingga banyak orang bisa mengakses dan memanfaatkannya
 
Lalu pertanyaan kita semakin mendalam karena, "kira kira alat atau tools apa untuk mewujudkan aplikasi seperti itu?". Tentu, kita akan memulai dengan menggoogling atau bertanya pada forum di discord atau facebook sehingga akan banyak sekali orang orang yang menyarankan berbagai macam framework dan cara
 
Jika saya menjadi salah satu orang yang boleh menyarankan, maka Streamlit bisa jadi menjadi alat yang bisa mendukung seluruh ide barusan
 
Tulisan ini merangkum berbagai hal.
 
 

Apa Itu Streamlit?

Streamlit merupakan framework  yang membantu programmer membuat tampilan UI web untuk pemrosean data dan pembelajaran mesin (machine learning) dalam bentuk web. 

Sebenarnya ada framework Flask yang sama sama membantu kita membuat aplikasi web dengan python, namun ada beberapa fitur yang terbatas sehingga menyulitkan kita untuk mendeploy model machine learning ke dalam web

Saya sendiri sudah mencobanya dan selalu gagal. Karena web menggunakan Flask mengandalkan lokal mesin untuk mengkalkulasikan algoritma untuk menciptakan sebuah prediksi pada data data yang dilatih
 
Sedangkan Streamlit seperti sudah menangani segala komputasi model dan kita sendiri sebagai programmer hanya bertugas untuk membuat dashboard dan tampilan UI-nyas aja dalam bentuk web

Konsep

Cara kerja Streamlit sebenarnya cukup mudah namun jika berkenaan dengan project atau model machine learning akan sangat tricky dan membutuhkan waktu  yang panjang. Mengapa? Karena kita butuh menyesuaikan bagaimana aplikasi ini menerima input data dan menampilkan outputnya

Streamlit berperan layaknya library python pada umumnya dan kita sebagai programmer tinggal menuliskan apa saja komponen yang dibutuhkan dari library itu
 
Kita menggunakan title dari streamlit untuk menuliskan judul

Setelah script dibuat kita tinggal menuliskan perintah di bawah ini pada terminal

streamlit run app.py
  • app.py merupakan nama file python yang kalia barusan buat

Lalu dengan otomatis akan muncul web seperti ini di browser

tampilan aplikasi web Streamlit pada browser

tampilan pada terminal kampung rambutan

Sesederhana itu. Selebihnya kalian bisa membaca artikelnya sendiri pada situs resminya yah 

Fitur.

Setelah kita memahami gimana sih konsep Streamlit ini. Kita juga harus tahu ada beberapa fitur di dalamnya yang sangat membantu. Contohnya,
  • Slider. Fitur ini membantu kita untuk membuat slider dan memasukkan input nilai ke dalam aplikasi
  • File Upload. Ini juga sangat membantu untuk bisa mengupload file apapun ekstensinya untuk diprediksi sesuai dengan trained model
  • Sidebar. Fitur ini juga sangat membantu jika kita menginginkan tampilan yang lebih simple
  • Deployment. Bahkan kalian bisa menjadikan aplikasi ini tidak hanya berfungsi pada jaringan lokal saja, namun juga bisa untuk online dengan mengandalkan layanan cloud dari Streamlit itu sendiri

Baca Juga: Cara Membuat Program Fuzzy Menggunakan MATLAB

Studi Kasus

Ketika Streamlit ini digunakan untuk studi kasus contohnya untuk menampilkan hasil training dan testing dari dataset, hasilnya cukup memuaskan karena Streamlit memberikan tampilan yang menarik.

 


Saya menggunakan algoritma Support Vector Machine untuk melatih dataset dan melihat berapa nilai training dan testing

Kurang lebih kode yang saya digunakan seperti tulisan diatas. Saya masih harus membuat berbagai macam function tambahan dan menjalankannya pada __main__

Sumber Belajar

Kalian bisa mengunjungi channe Youtube Data Professor karena doi sering kasih tutorial bagaimana membuat aplikasi Streamlit, meskipun kekurangannya dia jarang ngejelasin model machine learning yang ia pake. Cuman untuk pengimplementasian Streamlit, menurut saya ia berhasil menjelaskan dengan lengkap dan baik


Salah satu video yang sering saya tonton dari beliau


Pros dan Cons

Tentu ada beberapa kelebihan dan kelemahan ketika saya menggunakan Streamlit ini. 

Kelebihannya adalah

  • Tampilan UI mudah difahami dan bisa diatur sesuai dengan keinginan
  • Deployment mudah

Kekurangan

  • Susah untuk mengatur kapabilitas dan ukuran aplikasi
  • Ada beberapa package yang tidak cocok dengan versi Streamlit
  • Meskipun terlihat menarik, namun tampilan UI Streamlit terlalu kaku dan terbatas pada library yang disediakan

 

Share
Tweet
Pin
Share
No comments
Newer Posts
Older Posts

About me

About Me

Techbros Writer. Educactor, you name it

Follow Us

  • instagram
  • youtube

Categories

Materi Kuliah Buku Internet Stuff

recent posts

Sponsor

Blog Archive

  • March 2025 (4)
  • February 2025 (1)
  • November 2024 (3)
  • October 2024 (1)
  • January 2024 (1)
  • December 2023 (12)
  • November 2023 (9)
  • October 2023 (1)
  • September 2023 (3)
  • August 2023 (14)
  • July 2023 (3)
  • June 2023 (11)
  • May 2023 (3)
  • April 2023 (1)
  • March 2023 (1)
  • February 2023 (8)
  • January 2023 (6)
  • December 2022 (3)
  • November 2022 (2)
  • October 2022 (3)
  • September 2022 (3)
  • August 2022 (1)
  • July 2022 (1)
  • June 2022 (1)
  • May 2022 (1)
  • March 2022 (4)
  • February 2022 (8)
  • January 2022 (8)
  • December 2021 (4)
  • November 2021 (11)
  • October 2021 (6)
  • August 2021 (9)
  • July 2021 (5)
  • June 2021 (5)
  • May 2021 (4)
  • April 2021 (4)
  • March 2021 (6)
  • February 2021 (2)
  • January 2021 (7)
  • December 2020 (5)
  • November 2020 (2)
  • October 2020 (5)
  • September 2020 (6)
  • July 2020 (1)
  • June 2020 (1)
  • May 2020 (6)
  • March 2020 (1)
  • January 2020 (3)
  • December 2019 (3)
  • November 2019 (12)
  • October 2019 (8)
  • September 2019 (6)
  • August 2019 (8)
  • July 2019 (6)
  • June 2019 (3)
  • May 2019 (8)
  • April 2019 (2)

Report Abuse

Created with by ThemeXpose