Pengembangan Aplikasi Sistem Peringkas Otomatis Jurnal Berbahasa Indonesia Berbasis Deep Learning

Main Article Content

A. A. I. N. Eka Karyawati

Abstract

Dewasa ini, ketersediaan referensi digital sangat berlimpah dan mudah diakses dari laman Internet. Ketersediaan referensi khususnya artikel jurnal yang sangat banyak tersebut sering membuat pembaca kebingungan untuk memilih referensi yang tepat atau sesuai dengan topik yang didalami. Pembaca sering menghabiskan banyak waktu untuk membaca artikel yang tidak tepat. Untuk mengatasi masalah ini, diperlukan sebuah aplikasi peringkasan otomatis yang mampu meringkas artikel secara otomatis sehingga mempersingkat waktu membaca artikel tersebut. Peringkasan teks otomatis (Automatic Text Summarization, ATS) adalah peringkasan teks yang dilakukan secara otomatis oleh komputer. Peringkasan dilakukan sesuai dengan fokus peringkasan. Ada dua pendekatan atau algoritma peringkasan teks otomatis, yaitu peringkasan ekstraksi dan peringkasan abstraksi. Metode peringkasan ekstraksi dilakukan dengan memilih unit teks (kalimat, segmen kalimat, paragraf, atau bagian), yang berisi informasi penting dari dokumen dan mengatur unit tersebut dengan benar. Sedangkan metode peringkasan abstraksi melibatkan proses parafrase (menguraikan dengan kata sendiri) dari dokumen asli. Metode peringkasan abstraksi lebih mendekati metode peringkasan yang dilakukan secara alami oleh manusia. Pada penelitian ini dikembangkan algoritma peringkasan abstraksi untuk peringkasan jurnal Ilmu Komputer/Informatika berbahasa Indonesia menggunakan metode Deep Learning Transformer. Dataset jurnal yang digunakan adalah data jurnal bidang Informatika berbahasa Indonesia yang diunduh dari laman Internet. Data ringkasan jurnal disusun secara manual mengikuti metodologi peringkasan jurnal ilmiah. Evaluasi dilakukan dengan mengukur tingkat akurasi dari model dan juga mengukur fungsionalitas dari prototipe aplikasi peringkas yang dikembangkan.

Article Details

How to Cite
KARYAWATI, A. A. I. N. Eka. Pengembangan Aplikasi Sistem Peringkas Otomatis Jurnal Berbahasa Indonesia Berbasis Deep Learning. Prosiding Seminar Nasional Sains dan Teknologi (Senastek), [S.l.], v. 8, n. 1, p. 116-123, dec. 2023. Available at: <https://ojs.unud.ac.id/index.php/senastek/article/view/107828>. Date accessed: 21 nov. 2024.
Section
Articles

References

[1] Chopra, S., Auli, M., and Rush, A.M. 2016. Abstractive Sentence Summarization with Attentive Recurrent Neural Networks. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies.
[2] Duan, X., et al. 2019. Contrastive Attention Mechanism for Abstractive Sentence Summarization. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing
[3] Adelia, R., Suyanto, S., Wisesty, N. 2019. Indonesian Abstractive Text Summarization Using Bidirectional Gated Recurrent Unit. In Proceedings of the 4th International Conference on Computer Science and Computational Intelligence (ICCSCI) 2019.
[4] Shi, T, Keneshloo, Y., Ramakrishnan, N., and Reddy, C. K. 2020. Neural Abstractive Text Summarization with Sequence-to-Sequence Models. ACM Trans. Data Sci., Vol. 1, No. 1.
[5] Zhang, J., Zhao, Y., Saleh, M., and Liu, P. J. 2020. PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization. In Proceedings of the 37th International Conference on Machine Learning, Online, 2020.
[6] Subramanian, S., Li, R., Pilault, J., and Pal, C. 2020. On Extractive and Abstractive Neural Document Summarization with Transformer Language Models. arXiv:1909.03186 [cs.CL]
[7] Beltagy, I., Peters, M. E., and Cohan, A. 2020. Longformer: The Long-Document Transformer. arXiv:2004.05150 [cs.CL]
[8] Dou,Z.-Y., Liu, P., Hayashi, H., Jiang, Z., and Neubig, G. 2021. GSum: A General Framework for Guided Neural Abstractive Summarization. arXiv:2010.08014 [cs.CL]
[9] Huang, L., Cao, S., Parulian, N., Ji, H., and Wang, L. 2021. Efficient Attentions for Long Document Summarization. arXiv:2104.02112 [cs.CL]
[10] Jiang,Y., et al. 2022. Enriching Transformers with Structured Tensor-Product Representations for Abstractive Summarization. arXiv:2106.01317 [cs.CL]
[11] Cohan, A. and Goharian, N. 2017. Contextualizing Citations for Scientific Summarization using Word Embeddings and Domain Knowledge. SIGIR ’17, Shinjuku, Tokyo, Japan.
[12] Lauscher, A., Glavaˇs, G., and Eckert, K. 2017. University of Mannheim@ CLSciSumm-17: citation-based summarization of scientific articles using semantic textual similarity. In: CEUR Workshop Proceedings, pp. 33–42.
[13] Abura’ed, A., Chiruzzo, L., Saggion, H., Accuosto, P and Bravo, A. 2017. LaSTUS/TALN @ CLSciSumm-17: Cross-document Sentence Matching and Scientific Text Summarization Systems. In: Proceedings of the Computational Linguistics Scientific Summarization Shared Task (CL-SciSumm 2017), pp. 55–66.
[14] Slamet, C. Atmadja, A. R, Maylawati, D. S., Lestari, R. S., Darmalaksana, W., and Ramdhani, M. A. 2018. Automated Text Summarization for Indonesian Article Using Vector Space Model. Proceedings of the 2nd Annual Applied Science and Engineering Conference (AASEC 2017).
[15] Zhang, J. Li, K and Yao, C., 2018. Event-based Event-based Summarization Summarization for for Scientific Scientific Literature Literature in in Chinese. Procedia Computer Science, Vol. 129, No. 2018, Pp. 88–92.
[16] Jiang, X.-J., Mao, X.-L., Feng, B.-S., Wei, X., Bian, B.-B., & Huang, H. 2019. HSDS: An Abstractive Model for Automatic Survey Generation. In Proceedings of the Database Systems for Advanced Applications, Cham.
[17] Marques, J. M. C., Cozman, F. G., & Santos, I. H. F. d. 2019. Automatic Summarization of Technical Documents in the Oil and Gas Industry. Proceedings of the 2019 8th Brazilian Conference on Intelligent Systems (BRACIS).
[18] Agrawal, K., Mittal, A., and Pudi, V. 2019. Scalable, Semi-Supervised Extraction of Structured Information from Scientific Literature. In Proceedings of the Workshop on Extracting Structured Knowledge from Scientific Publications 2019, pp. 11–20