ORKG-Leaderboards: một quy trình hệ thống để khai thác bảng xếp hạng dưới dạng đồ thị tri thức

Salomon Kabongo1, Jennifer D’Souza2, Sören Auer1,2
1L3S Research Center, Leibniz University of Hannover, Hannover, Germany
2TIB Leibniz Information Centre for Science and Technology, Hannover, Germany

Tóm tắt

Mục đích của công trình này là mô tả phần mềm orkg-Leaderboard được thiết kế để tự động trích xuất các bảng xếp hạng được định nghĩa dưới dạng các bộ ba nhiệm vụ-dữ liệu-métrique từ các tập hợp lớn các tài liệu nghiên cứu thực nghiệm trong lĩnh vực trí tuệ nhân tạo (AI). Phần mềm có thể hỗ trợ cả hai quy trình chính của xuất bản học thuật, đó là dưới dạng tệp LaTeX hoặc tệp PDF. Hơn nữa, hệ thống được tích hợp với nền tảng đồ thị tri thức mở (ORKG), điều này thúc đẩy việc xuất bản tìm hiểu học thuật dưới dạng có thể hành động bằng máy. Do đó, đầu ra của hệ thống, khi được tích hợp với hạ tầng Semantic Web được ORKG hỗ trợ để đại diện cho các 'tài nguyên' có thể hành động bằng máy trên Web, cho phép: (1) rộng rãi, tích hợp các kết quả thực nghiệm của các nhà nghiên cứu trên toàn thế giới, qua đó tạo điều kiện cho sự minh bạch trong nghiên cứu thực nghiệm với khả năng trở nên trọn vẹn tùy thuộc vào các nguồn dữ liệu cơ bản của các tài liệu xuất bản; và (2) cụ thể, cho phép các nhà nghiên cứu theo dõi tiến trình trong lĩnh vực AI với cái nhìn tổng quan về tình hình hiện tại trong các nhiệm vụ AI phổ biến nhất và các dữ liệu tương ứng của chúng thông qua các chế độ xem động ORKG, tận dụng bảng và biểu đồ trực quan hóa dữ liệu có thể hành động bằng máy. Mô hình tốt nhất của chúng tôi đạt được hiệu suất trên 90% F1 trong nhiệm vụ trích xuất bảng xếp hạng, chứng tỏ orkg-Leaderboards là một công cụ khả thi cho việc sử dụng trong thế giới thực. Về phía trước, theo một cách nào đó, orkg-Leaderboards chuyển đổi nhiệm vụ trích xuất bảng xếp hạng thành một nhiệm vụ số hóa tự động, điều mà cộng đồng đã thực hiện trong thời gian dài như một nỗ lực crowdsourced.

Từ khóa


Tài liệu tham khảo

Parra Escartín, C., Reijers, W., Lynn, T., Moorkens, J., Way, A., Liu, C.-H.: Ethical considerations in NLP shared tasks. In: Proceedings of the First ACL Workshop on Ethics in Natural Language Processing, pp. 66–73. Association for Computational Linguistics, Valencia, Spain (2017). https://doi.org/10.18653/v1/W17-1608 Nissim, M., Abzianidze, L., Evang, K., van der Goot, R., Haagsma, H., Plank, B., Wieling, M.: Last words: sharing is caring: the future of shared tasks. Comput. Linguist. 43(4), 897–904 (2017) Kim, J.-D., Pyysalo, S.: In: Dubitzky, W., Wolkenhauer, O., Cho, K.-H., Yokota, H. (eds.) BioNLP Shared Task, pp. 138–141. Springer, New York (2013). https://doi.org/10.1007/978-1-4419-9863-7_138 Jinha, A.E.: Article 50 million: an estimate of the number of scholarly articles in existence. Learn. Publ. 23(3), 258–263 (2010) Chiarelli, A., Johnson, R., Richens, E., Pinfield, S.: Accelerating scholarly communication: the transformative role of preprints (2019) paperswithcode.com. https://paperswithcode.com/. Accessed 26 Apr 2021 NLP-progress. http://nlpprogress.com/. Accessed 26 Apr 2021 AI metrics. https://www.eff.org/ai/metrics. Accessed 26 Apr 2021 SQuAD Explorer. https://rajpurkar.github.io/SQuAD-explorer/. Accessed 26 Apr 2021 Reddit Sota. https://github.com/RedditSota/state-of-the-art-result-for-machine-learning-problems. Accessed 26 Apr 2021 Wilkinson, M.D., Dumontier, M., Aalbersberg, I.J., Appleton, G., Axton, M., Baak, A., Blomberg, N., Boiten, J.-W., da Silva Santos, L.B., Bourne, P.E., et al.: The fair guiding principles for scientific data management and stewardship. Sci. Data 3, 1–9 (2016) Jacobsen, A., de Miranda Azevedo, R., Juty, N., Batista, D., Coles, S., Cornet, R., Courtot, M., Crosas, M., Dumontier, M., Evelo, C.T., et al.: FAIR Principles: Interpretations and Implementation Considerations. MIT Press, Cambridge (2019) Auer, S., Oelen, A., Haris, M., Stocker, M., D’Souza, J., Farfar, K.E., Vogt, L., Prinz, M., Wiens, V., Jaradeh, M.Y.: Improving access to scientific literature with knowledge graphs. Bibliothek Forschung und Praxis 44(3), 516–529 (2020) Escartín, C.P., Lynn, T., Moorkens, J., Dunne, J.: Towards transparency in NLP shared tasks. arXiv preprint arXiv:2105.05020 (2021) Kabongo, S., D’Souza, J., Auer, S.: Automated mining of leaderboards for empirical ai research. In: International Conference on Asian Digital Libraries, pp. 453–470 . Springer (2021) Zaheer, M., Guruganesh, G., Dubey, K.A., Ainslie, J., Alberti, C., Ontanon, S., Pham, P., Ravula, A., Wang, Q., Yang, L.: Big bird: transformers for longer sequences. Adv. Neural. Inf. Process. Syst. 33, 17283–17297 (2020) D’Souza, J., Auer, S.: Computer science named entity recognition in the open research knowledge graph. In: From Born-Physical to Born-Virtual: Augmenting Intelligence in Digital Libraries: 24th International Conference on Asian Digital Libraries, ICADL 2022, Hanoi, Vietnam, November 30–December 2, 2022, Proceedings, pp. 35–45 . Springer (2022) Gupta, S., Manning, C.: Analyzing the dynamics of research by extracting key aspects of scientific papers. In: Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 1–9. Asian Federation of Natural Language Processing, Chiang Mai, Thailand (2011). https://aclanthology.org/I11-1001 LeCun, Y., Bottou, L., Bengio, Y., Haffner, P.: Gradient-based learning applied to document recognition. Proc. IEEE 86(11), 2278–2324 (1998) Bordes, A., Usunier, N., Garcia-Duran, A., Weston, J., Yakhnenko, O.: Translating embeddings for modeling multi-relational data. In: Proceedings of the 26th InternationalConference on Neural Information Processing Systems, vol. 2. NIPS 13, pp. 2787–2795. Curran Associates Inc., Red Hook, NY, USA (2013) Papineni, K., Roukos, S., Ward, T., Zhu, W.-J.: Bleu: a method for automatic evaluation of machine translation. In: Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311–318 (2002) Sasaki, Y.: The truth of the f-measure. Teach. Tutor. Mater. 1(5), 1–5 (2007) Voorhees, E.M.: The trec-8 question answering track report. In: Trec, vol. 99, pp. 77–82 (1999) Anteghini, M., D’Souza, J., dos Santos, V.A., Auer, S.: Easy semantification of bioassays. In: International Conference of the Italian Association for Artificial Intelligence, pp. 198–212 . Springer (2022) Kononova, O., Huo, H., He, T., Rong, Z., Botari, T., Sun, W., Tshitoyan, V., Ceder, G.: Text-mined dataset of inorganic materials synthesis recipes. Sci. Data 6(1), 1–11 (2019) Kulkarni, C., Xu, W., Ritter, A., Machiraju, R.: An annotated corpus for machine reading of instructions in wet lab protocols. In: NAACL: HLT, Volume 2 (Short Papers), New Orleans, Louisiana, pp. 97–106 (2018). https://doi.org/10.18653/v1/N18-2016 Mysore, S., Jensen, Z., Kim, E., Huang, K., Chang, H.-S., Strubell, E., Flanigan, J., McCallum, A., Olivetti, E.: The materials science procedural text corpus: annotating materials synthesis procedures with shallow semantic structures. In: Proceedings of the 13th Linguistic Annotation Workshop, pp. 56–64 (2019) Kuniyoshi, F., Makino, K., Ozawa, J., Miwa, M.: Annotating and extracting synthesis process of all-solid-state batteries from scientific literature. In: LREC, pp. 1941–1950 (2020) Handschuh, S., QasemiZadeh, B.: The acl rd-tec: a dataset for benchmarking terminology extraction and classification in computational linguistics. In: COLING 2014: 4th International Workshop on Computational Terminology (2014) Augenstein, I., Das, M., Riedel, S., Vikraman, L., McCallum, A.: Semeval 2017 task 10: Scienceie - extracting keyphrases and relations from scientific publications. In: SemEval@ACL (2017) Luan, Y., He, L., Ostendorf, M., Hajishirzi, H.: Multi-task identification of entities, relations, and coreference for scientific knowledge graph construction. In: EMNLP (2018) D’Souza, J., Hoppe, A., Brack, A., Jaradeh, M.Y., Auer, S., Ewerth, R.: The stem-ECR dataset: Grounding scientific entity references in stem scholarly content to authoritative encyclopedic and lexicographic sources. In: LREC, Marseille, France, pp. 2192–2203 (2020) Hou, Y., Jochim, C., Gleize, M., Bonin, F., Ganguly, D.: Identification of tasks, datasets, evaluation metrics, and numeric scores for scientific leaderboards construction. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5203–5213. Association for Computational Linguistics, Florence, Italy (2019). https://doi.org/10.18653/v1/P19-1513 Jain, S., van Zuylen, M., Hajishirzi, H., Beltagy, I.: Scirex: A challenge dataset for document-level information extraction. In: Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7506–7516 (2020) Mondal, I., Hou, Y., Jochim, C.: End-to-end construction of nlp knowledge graph. In: Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 1885–1895 (2021) GROBID. GitHub (2008–2022) Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, Ł., Polosukhin, I.: Attention is all you need. In: Advances in Neural Information Processing Systems, pp. 5998–6008 (2017) Kenton, J.D.M.-W.C., Toutanova, L.K.: Bert: Pre-training of deep bidirectional transformers for language understanding. In: Proceedings of NAACL-HLT, pp. 4171–4186 (2019) Natural Language Inference. https://paperswithcode.com/task/natural-language-inference. Accessed 22 Apr 2021 Beltagy, I., Lo, K., Cohan, A.: SciBERT: a pretrained language model for scientific text. In: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615–3620. Association for Computational Linguistics, Hong Kong, China (2019). https://doi.org/10.18653/v1/D19-1371 Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R.R., Le, Q.V.: Xlnet: Generalized autoregressive pretraining for language understanding. In: Advances in Neural Information Processing Systems, vol. 32 (2019) Jiang, M., D’Souza, J., Auer, S., Downie, J.S.: Improving scholarly knowledge representation: Evaluating bert-based models for scientific relation classification. In: International Conference on Asian Digital Libraries, pp. 3–19 . Springer (2020) Dai, Z., Yang, Z., Yang, Y., Carbonell, J.G., Le, Q., Salakhutdinov, R.: Transformer-xl: Attentive language models beyond a fixed-length context. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2978–2988 (2019) Ware, M., Mabe, M.: The STM report: An overview of scientific and scholarly journal publishing (2015)