Main Article Content

I Gede Bintang Arya Budaya
Made Windu Antara Kesiman
I Made Gede Sunarya

Abstract

Mesin Translasi (MT) adalah pilihan utama bagi orang-orang, terutama untuk mempelajari pengetahuan yang tidak menggunakan bahasa asli mereka. Bahasa Kawi sebagai bahasa lokal, meskipun jarang digunakan secara aktif, merupakan bahasa yang banyak digunakan dalam berbagai literatur lama seperti lontar, khususnya di Bali yang masih dipelajari hingga saat ini. Banyak MT dengan pengguna aktif, seperti bahasa Indonesia yang terus dikembangkan tetapi tidak untuk bahasa Kawi. Perancangan MT berbasis neural menggunakan microframework Flask merupakan langkah awal pengembangan MT dari bahasa Kawi ke Bahasa Indonesia. Pengembangan dimulai dengan membuat korpus paralel Kawi ke Indonesia dan dilanjutkan dengan membuat arsitektur MT dengan model berbasis Recurrent Neural Network (RNN) yaitu simple RNN dan bidirectional RNN. Berdasarkan hasil pengujian, kedua model ini mampu mencapai skor BLEU sebesar 20.43 untuk simple RNN dan 17.6 untuk bidirectional RNN. Model MT yang diajukan masih belum mampu mencapai level standar seperti ahli manusia dan high resources MT yaitu berdasar Google dengan skor BLEU minimal 60. MT untuk bahasa Kawi ke bahasa Indonesia dapat dikembangkan kedepan dengan pemanfaatan microframework Flask, yang dapat membantu proses pengembangan lebih cepat.

Article Details

How to Cite
I Gede Bintang Arya Budaya, Made Windu Antara Kesiman, & I Made Gede Sunarya. (2022). Perancangan Mesin Translasi berbasis Neural dari Bahasa Kawi ke dalam Bahasa Indonesia menggunakan Microframework Flask. Jurnal Sistem Dan Informatika (JSI), 16(2), 94-103. https://doi.org/10.30864/jsi.v16i2.440
Section
Articles

References

[1] T. F. Kai and T. K. Hua, “Enhancing english language vocabulary learning among indigenous learners through google translate,” J. Educ. e-Learning Res., vol. 8, no. 2, pp. 143–148, 2021, doi: 10.20448/JOURNAL.509.2021.82.143.148.

[2] H. I. R. HINZLER, “BALINESE PALM-LEAF MANUSCRIPTS,” Bijdr. tot Taal-, Land- en Volkenkd., vol. 149, no. 3, pp. 438–473, Oct. 1993, [Online]. Available: http://www.jstor.org/stable/27864483.

[3] N. S. Ardiyasa and M. K. S. E-mail, “Eksistensi Naskah Lontar Masyarakat Bali ( Studi Kasus Hasil Pemetaan Penuyuluh Bahasa Bali Tahun 2016-2018 ),” vol. 11, no. 1, 2021.

[4] M. L. Forcada et al., “Apertium: a free/open-source platform for rule-based machine translation,” Mach. Transl., vol. 25, no. 2, pp. 127–144, Jun. 2011, doi: 10.1007/s10590-011-9090-0.

[5] P. Koehn, F. J. Och, and D. Marcu, “Statistical Phrase-Based Translation,” 2003.

[6] P. Koehn, “Europarl : A Parallel Corpus for Statistical Machine Translation,” MT Summit, vol. 11, pp. 79--86, 2005, Accessed: Jul. 20, 2021. [Online]. Available: http://mt-archive.info/MTS-2005-Koehn.pdf.

[7] D. Bahdanau, K. H. Cho, and Y. Bengio, “Neural machine translation by jointly learning to align and translate,” 3rd Int. Conf. Learn. Represent. ICLR 2015 - Conf. Track Proc., 2015.

[8] K. Cho, B. van Merrienboer, D. Bahdanau, and Y. Bengio, “On the Properties of Neural Machine Translation: Encoder–Decoder Approaches,” pp. 103–111, 2015, doi: 10.3115/v1/w14-4012.

[9] M. K. Vathsala and G. Holi, “RNN based machine translation and transliteration for Twitter data,” Int. J. Speech Technol., vol. 23, no. 3, pp. 499–504, 2020.

[10] S. Yang, Y. Wang, and X. Chu, “A Survey of Deep Learning Techniques for Neural Machine Translation,” 2020, Accessed: Jul. 20, 2021. [Online]. Available: http://arxiv.org/abs/2002.07526.

[11] R. Sennrich and B. Zhang, “Revisiting low-resource neural machine translation: A case study,” ACL 2019 - 57th Annu. Meet. Assoc. Comput. Linguist. Proc. Conf., pp. 211–221, 2020, doi: 10.18653/v1/p19-1021.

[12] I. Sutskever, O. Vinyals, and Q. V. Le, “Sequence to sequence learning with neural networks,” Adv. Neural Inf. Process. Syst., vol. 4, no. January, pp. 3104–3112, 2014.

[13] G. Tiwari, A. Sharma, A. Sahotra, and R. Kapoor, “English-Hindi Neural Machine Translation-LSTM Seq2Seq and ConvS2S,” Proc. 2020 IEEE Int. Conf. Commun. Signal Process. ICCSP 2020, pp. 871–875, 2020, doi: 10.1109/ICCSP48568.2020.9182117.

[14] K. Papineni, S. Roukos, T. Ward, and W.-J. Zhu, “Bleu: a method for automatic evaluation of machine translation,” in Proceedings of the 40th annual meeting of the Association for Computational Linguistics, 2002, pp. 311–318.

[15] Q. Li and Y.-L. Chen, “Data flow diagram,” in Modeling and Analysis of Enterprise and Information Systems, Springer, 2009, pp. 85–97.

[16] M. Khan, “Different approaches to black box testing technique for finding errors,” Int. J. Softw. Eng. Appl., vol. 2, no. 4, 2011.

[17] T. P. Adewumi, F. Liwicki, and M. Liwicki, “Word2vec: Optimal hyper-parameters and their impact on nlp downstream tasks,” arXiv Prepr. arXiv2003.11645, 2020.

[18] M. Belkin, D. Hsu, S. Ma, and S. Mandal, “Reconciling modern machine-learning practice and the classical bias–variance trade-off,” Proc. Natl. Acad. Sci., vol. 116, no. 32, pp. 15849–15854, 2019.

[19] Q. Wang et al., “Learning Deep Transformer Models for Machine Translation,” ACL 2019 - 57th Annu. Meet. Assoc. Comput. Linguist. Proc. Conf., pp. 1810–1822, Jun. 2019, doi: 10.18653/v1/p19-1176.

[20] J. Zhu et al., “Incorporating BERT into Neural Machine Translation,” Feb. 2020, Accessed: Nov. 26, 2021. [Online]. Available: https://arxiv.org/abs/2002.06823v1.
Indexed and Journal List Title by: