�Jurnal Syntax Admiration |
Vol. 1 No. 6 Oktober 2020 |
p-ISSN : 2722-7782 e-ISSN : 2722-5356 |
Sosial Teknik |
IMPLEMENTASI TRANSFER
LEARNING UNTUK IDENTIFIKASI ORDO TUMBUHAN MELALUI DAUN
Fadlur Rochman dan Hartarto Junaedi
Institut Sains dan Teknologi Terpadu Surabaya Jawa timur, Indonesia�������
Email: [email protected] dan [email protected]
INFO ARTIKEL |
ABSTRAK |
Diterima 24 Agustus 2020 Diterima dalam bentuk revisi 14 Oktober 2020 Diterima dalam bentuk revisi 16 Oktober 2020 |
Klasifikasi objek
saat ini merupakan salah satu studi dalam ilmu
komputer yang berkembang dengan sangat pesat. Convolutional Neural Network (CNN) berperan penting dalam perkembangan studi ini, hal ini
dikarenakan kemampuan CNN
dalam menentukan fitur yang digunakan dalam klasifikasi dan pembelajaran secara deep learning, akan
tetapi untuk menemukan sebuah model yang memiliki akurasi yang baik dan untuk menghindari over fit diperlukan sebuah
dataset yang cukup
banyak, semakin banyak variasi dataset yang dilatih
memberi kemungkinan model
yang dihasilkan akan memiliki akurasi yang lebih baik. Teknik Transfer Learning adalah
salah satu solusi yang bisa dimanfaatkan pada saat dataset yang ada tidak cukup ideal untuk melakukan proses training dari awal. Tujuan dari penelitian ini adalah memanfaatkan
arsitektur model yang sudah
dilatihkan sebelumnya (pretrained model), transfer learning mampu meningkatkan akurasi model dengan melatih ulang model menggunakan dataset yang tidak
terlalu banyak. Penelitian ini menggunakan metode teknik transfer learning pada convolutional neural network untuk
mengklasifikasikan ordo tumbuhan
dengan menggunakan citra daun sebagai
input. Target output adalah
delapan ordo tumbuhan. Dengan jumlah dataset yang tidak terlalu besar, penelitian ini diharapkan mampu memberikan nilai akurasi diatas 70%. Pretrained model yang digunakan dalam
penelitian ini adalah beberapa arsitektur model yang sudah dilatih pada dataset Imagenet
yang memiliki lebih dari satu juta
citra dan memiliki kelas sebanyak seribu kelas berbeda. |
Kata
kunci: Convolutional Neural
Network; Transfer Learning; Pre-trained Model; Inception-v3; ResNet
dan VGG. |
Pendahuluan
Pengenalan dan klasifikasi
pada citra saat ini merupakan
studi yang
banyak menghasilkan penelitian. Objek penelitian pun sangat
bervariasi, misalnya pengenalan jalan raya dan kendaraan
(Rezaee & Zhang, 2017) (Sun
et al., 2006) (Lee,
2015) (Jo et
al., 2019),
pengenalan dan klasifikasi bunga (Wu et al., 2019) (Nilsback
& Zisserman, 2008) (Xia
& Nan, 2017) (Saitoh
& Kaneko, 2000),
klasifikasi pada ikan,klasifikasi pada buah-buahan dan juga pada makanan (Rajayogi et al., 2019). Banyak metode
berkembang dalam bidang ini.
Pengenalan objek
ini biasanya memanfaatkan fitur-fitur yang ada pada citra tersebut, biasanya yang paling sering digunakan fitur pada warna, bentuk dan tekstur. Akan tetapi untuk beberapa
objek yang fitur-fiturnya abstrak memerlukan metode yang berbeda, Convolutional
Neural Network (CNN) mampu untuk
mengekstraksi fitur-fitur
yang abstrak yang ada pada suatu citra. Teknik ini berkembang dengan cepat dan mampu untuk mengklasifikasikan
objek dalam jumlah yang besar. Seperti pada saat model CNN yang bernama VGG16 mampu mengenali 1000 kelas yang berbeda dari jutaan
gambar. Akan tetapi model
CNN membutuhkan dataset yang besar untuk menghasilkan
akurasi yang baik.
Saat ini
ada teknik yang bisa digunakan untuk memanfaatkan model CNN yang
sudah jadi untuk digunakan pada dataset
yang lebih kecil (Sawada
et al., 2016) dengan
sedikit perubahan pada
layer klasifikasi. Teknik ini
disebut dengan Transfer
Learning. Penelitian ini
mencoba mengaplikasikan transfer
learning untuk mengklasifikasikan
jenis-jenis ordo tumbuhan dengan menggunakan dataset
citra daun dari tumbuhan dan menganalisis perbedaan saat menggunakan beberapa model yang seperti
VGG16, Inception-V3 dan ResNet50.
Pada beberapa
penelitian model-model CNN bisa
memiliki akurasi yang cukup baik dengan
nilai diatas 80% (Setiawan,
2019), dengan
akurasi VGG16 Sebesar
83,8%, Inception-V3 dan ResNet50 dengan
89,3%. Pada penelitian pengenalan
gender (Smith
& Chen, 2019), VGG mampu
menghasilkan akurasi
98,56%. Bahkan VGG dengan transfer
learning mampu menghasilkan
akurasi sampai 100% pada penelitian tentang klasfikasi otak (Kaur
& Gandhi, 2019).
Metode Penelitian
Deep Learning merupakan model algoritma komputasi yang terdiri dari beberapa lapisan-lapisan proses dan digunakan untuk mempelajari representasi dari data yang digunakan (Lecun et al., 2015). Pada deep learning lapisan-lapisan awal dari jaringan umumnya menunjukkan kemampuan jaringan dalam mempelajari fitur-fitur yang umum yang ada pada dataset. Sedangkan fitur-fitur yang ada pada posisi terdalam menunjukkan kemampuan untuk mempelajari fitur-fitur yang semakin spesifik yang dimiliki oleh dataset yang ada.
Transfer Learning merupakan teknik yang memanfaatkan model yang sudah ditraining sebelumnya (pretrained model) untuk digunakan mengklasifikasikan dataset yang baru sehingga tidak perlu untuk melakukan training data dari awal (Tan et al. 2018), dan dilakukan penyesuaian pada bagian akhir dari model. Secara umum arsitektur CNN terdiri dari beberapa layer, layer-layer ini yang melakukan ekstraksi fitur-fitur yang ada pada dataset.
Gambar 1 Arsitektur CNN
Pada bagian akhir
layer-layer CNN akan mengerucut
untuk sehingga membentuk sebuah array 1 dimensi yang berisi nilai prediksi masing-masing kelas. Pada bagian ini dilakukan tuning untuk menyesuaikan dengan jumlah kelas
pada dataset yang digunakan.
Dalam transfer learning, kemungkinan untuk melatih kembali model jaringan dengan target yang baru tanpa mengalami
overfitting cukup besar,
selama secara umum tugas yang diberikan pada target kedua memiliki kecocokan dan karakteristik fitur yang sama dengan tugas
pertamanya (Yosinski
et al., 2014). Pada tugas
yang pertama haruslah dataset
yang digunakan lebih besar dari pada dataset yang digunakan pada tugas selanjutnya.
Penelitian ini
sendiri akan mencoba untuk mengklasifikasikan
ordo tumbuhan dari 8 kelas ordo yang berbeda. Dataset
yang akan digunakan merupakan citra daun dengan ukuran
sesuai dengan kebutuhan input masing-masing model, dataset 224x224
piksel akan diaplikasikan untuk arsitektur model VGG16 dan ResNet50, sedangkan
dataset 299x299 piksel akan
diaplikasikan pada arsitektur
model Inception-v3. Dataset terdiri
dari 200 gambar untuk masing-masing kelas, dan untuk meningkatkan tingkat akurasi model, dilakukan preprosessing
pada dataset yang digunakan dengan
teknik rotate dan flip. Sehingga tiap kelas
memiliki 600 citra.
���
���������������������������������������� ����������1� ����������� 2�������� �� 3������ �������� 4
���
���������������������������������������������������
5 ������������ 6������� ��� 7����� ��������� 8
Gambar 2 Contoh dataset citra daun
Tabel 1
Kelas dan jumlah dataset
Kelas |
Jumlah |
Alismatales |
600 |
Asparagales |
600 |
Cucurbitales |
600 |
Poales |
600 |
Ranunculales |
600 |
Sapindales |
600 |
Solanales |
600 |
Zingiberales |
600 |
Arsitektur model yang digunakan pada penelitian ini dilakukan fine tuning
pada bagian Classification, dengan cara sehingga
output yang dihasilkan sesuai
dengan dataset yang digunakan
pada penelitian ini.
Pengujian dilakukan dengan
menggunakan dataset citra
daun sebagai input ke dalam arsitektur
model ResNet50, Inception, dan VGG16, input parameter pada
arsitektur model yang digunakan
pada penelitian ini menggunakan 40 iterasi, dengan ukuran batch sebesar 32. Sedangkan dataset
yang untuk proses training digunakan
citra sebanyak 3360 Citra dengan masing-masing kelas sebanyak 420 citra, dan dataset
untuk validasi sebanyak 1440 citra dengan masing-masing kelas sebanyak 180 citra.� Dataset validasi
berguna untuk melihat akurasi dari training pada masing-masing epoch. Model
yang memiliki kinerja baik merupakan model yang memiliki tingkat akurasi yang selalu meningkat pada setiap iterasi yang dilakukan selama proses training.
(a)
(b)
(c)
Gambar 3 Nilai akurasi
selama proses training
untuk model ResNet
(a), Inception (b) dan VGG (c)
Dari hasil pengujian, model ResNet memiliki nilai akurasi pada
proses validasi diatas 80% setelah melewati iterasi ke-7, dan pada iterasi ke
40 memiliki nilai akurasi sebesar 87,5%, seperti yang ditunjukkan pada tabel 2.
sedangkan untuk model Inception memiliki nilai akurasi diatas 80%
setelah iterasi ke-3, stabil pada kisaran 80% dan memiliki nilai akurasi sebesar
88,9% pada iterasi ke-40.
Gambar 4
Perbandingan akurasi antar
model
Tabel 2
Nilai Akurasi model tiap
proses iterasi
Iterasi |
ResNet |
Inception |
VGG |
1 |
0,1583 |
0,6417 |
0,1549 |
2 |
0,2792 |
0,7951 |
0,1813 |
3 |
0,4507 |
0,8181 |
0,2396 |
4 |
0,7014 |
0,8389 |
0,2521 |
5 |
0,7410 |
0,8569 |
0,2812 |
6 |
0,7861 |
0,8292 |
0,2736 |
7 |
0,8354 |
0,7750 |
0,3326 |
8 |
0,8681 |
0,7757 |
0,3465 |
9 |
0,8611 |
0,7854 |
0,3632 |
10 |
0,8625 |
0,7937 |
0,3549 |
11 |
0,8729 |
0,8271 |
0,3569 |
12 |
0,8750 |
0,8299 |
0,3931 |
13 |
0,8646 |
0,8375 |
0,4222 |
14 |
0,8618 |
0,8750 |
0,3201 |
15 |
0,8639 |
0,8778 |
0,3750 |
16 |
0,8660 |
0,8694 |
0,4264 |
17 |
0,8069 |
0,8556 |
0,4243 |
18 |
0,7958 |
0,8722 |
0,4451 |
19 |
0,8569 |
0,8556 |
0,4431 |
20 |
0,8410 |
0,8674 |
0,4417 |
21 |
0,8687 |
0,8396 |
0,4528 |
22 |
0,8500 |
0,8306 |
0,4486 |
23 |
0,8722 |
0,8500 |
0,4618 |
24 |
0,8562 |
0,8653 |
0,4563 |
25 |
0,8035 |
0,8451 |
0,4611 |
26 |
0,8139 |
0,8424 |
0,4493 |
27 |
0,8674 |
0,8465 |
0,4681 |
28 |
0,8840 |
0,8674 |
0,4646 |
29 |
0,8861 |
0,8799 |
0,4556 |
30 |
0,8660 |
0,8611 |
0,4535 |
31 |
0,8285 |
0,8917 |
0,4743 |
32 |
0,8424 |
0,8819 |
0,4549 |
33 |
0,8694 |
0,8667 |
0,4319 |
34 |
0,8681 |
0,8632 |
0,4229 |
35 |
0,8813 |
0,8944 |
0,4410 |
36 |
0,8792 |
0,8743 |
0,4674 |
37 |
0,8750 |
0,8840 |
0,4549 |
38 |
0,8847 |
0,8833 |
0,4549 |
39 |
0,8743 |
0,8889 |
0,4576 |
40 |
0,8750 |
0,8889 |
0,4271 |
Model VGG memiliki akurasi yang kurang baik, hanya sebesar 42% setelah iterasi ke-40. Meskipun pada proses training akurasi training bisa meningkat, akan tetapi pada proses validasi akurasi yang didapat tidak setinggi proses training.
����������������������������������������������������
Arsitektur model ResNet50,
dan Inception-v3 memiliki akurasi lebih dari
85% untuk mengklasifikasikan
ordo tanaman. Akurasi yang cukup besar sudah
bisa dilihat saat iterasi kurang
dari 10 dan nilai akurasi tiap iterasi
stabil diantara 83%-88% untuk model Arsitektur ResNet50
dan Inception-v3. Sedangkan arsitektur model VGG, memiliki akurasi yang kurang baik pada kasus penelitian ini.
Bibliografi
Jo, S. Y., Ahn, N., Lee, Y., & Kang, S. J. (2019).
Transfer Learning-based Vehicle Classification. Proceedings-International
SoC Design Conference 2018, ISOCC 2018, 127�128.
Kaur, T., & Gandhi, T. K. (2019).
Automated Brain Image Classification Based On VGG-16 and Transfer Learning. Proceedings-2019
International Conference on Information Technology, ICIT 2019, 94�98.
Lecun, Y., Bengio, Y., & Hinton, G.
(2015). Deep learning. Nature, 521(7553), 436-444.
Lee, T. (2015). Vehicle Detection, Shadow,
HOG, SVM, Autonomous Vehicles 1. Iccas, 1720�1723.
Nilsback, M. E., & Zisserman, A.
(2008). Automated Flower Classification Over A Large Number Of Classes. Proceedings-6th
Indian Conference on Computer Vision, Graphics and Image Processing, ICVGIP
2008, 722�729.
Rajayogi, J. R., Manjunath, G., &
Shobha, G. (2019). Indian Food Image Classification with Transfer Learning. CSITSS
2019-2019 4th International Conference on Computational Systems and Information
Technology for Sustainable Solution, Proceedings, 4, 1�4.
Rezaee, M., & Zhang, Y. (2017). Road
Detection Using Deep Neural Network In High Spatial Resolution Images. Joint
Urban Remote Sensing Event (JURSE).
Saitoh, T., & Kaneko, T. (2000). Automatic
Recognition of Wild Flowers. February. Pattern Recognition, International
Conference, 2, 2507-2507
Sawada, Y., Sato, Y., Nakada, T., Ujimoto,
K., & Hayashi, N. (2016). All-transfer learning for deep neural networks
and its application to sepsis classification. Frontiers in Artificial
Intelligence and Applications, 285, 1586�1587.
Setiawan, W. (2019). Perbandingan Arsitektur
Convolutional Neural Network Untuk Klasifikasi Fundus. 7(2), 49�54.
Smith, P., & Chen, C. (2019). Transfer
Learning with Deep CNNs for Gender Recognition and Age Estimation. Proceedings-2018
IEEE International Conference on Big Data, Big Data 2018, 2564�2571.
Sun, Z., Bebis, G., & Miller, R.
(2006). On-Road Vehicle Detection : A Review. IEEE transactions on
pattern analysis and machine intelligenc, 28(5), 694�711.
Wu, Y., Qin, X., Pan, Y., & Yuan, C.
(2019). Convolution Neural Network Based Transfer Learning For Classification
Of Flowers. 2018 IEEE 3rd International Conference on Signal and Image
Processing, ICSIP 2018, 562�566.
Xia, X., & Nan, B. (2017). Inception-v3
for Flower Classification. International Conference on Image, Vision and Computing (ICIVC) 783�787.
Yosinski, J., Clune, J., Bengio, Y., &
Lipson, H. (2014). How Transferable Are Features In Deep Neural Networks? Advances
In Neural Information Processing Systems, 4(January), 3320�3328.