Những Thuật Toán Giải Quyết Ràng Buộc Để Nâng Cao Tốc Độ Thử Thách Theta-Subsumption

Machine Learning - Tập 55 - Trang 137-174 - 2004
Jérôme Maloberti1, Michèle Sebag1
1Laboratoire de Recherche en Informatique, CNRS UMR 8623

Tóm tắt

Học tập quan hệ và Lập trình Logic Quy nạp (ILP) thường sử dụng thử nghiệm θ-subsumption được định nghĩa bởi Plotkin. Dựa trên việc tái cấu trúc θ-subsumption thành một bài toán thỏa mãn ràng buộc nhị phân, bài báo này mô tả một thuật toán θ-subsumption mới có tên là Django,1 kết hợp giữa các quy trình CSP nổi tiếng và các cấu trúc dữ liệu đặc thù cho θ-subsumption. Django được xác nhận bằng cách sử dụng khung phức tạp ngẫu nhiên phát triển trong CSPs, và được giới thiệu vào ILP bởi Giordana và Saitta. Các thí nghiệm có nguyên tắc và mở rộng trong khung này cho thấy rằng Django cải thiện đáng kể so với các thuật toán θ-subsumption trước đây, với nhiều bậc độ khác nhau, và rằng các quy trình khác nhau hoạt động hiệu quả hơn ở các khu vực khác nhau của bối cảnh phức tạp ngẫu nhiên. Những thí nghiệm này cho phép xây dựng một lớp điều khiển trên Django, được gọi là Meta-Django, quyết định các quy trình tốt nhất để sử dụng tùy thuộc vào các tham số порядок của bài toán θ-subsumption. Cuối cùng, những tiến bộ về hiệu suất và khả năng mở rộng tốt của Django và Meta-Django được chứng minh qua một nhiệm vụ ILP trong thế giới thực (bắt chước việc tìm kiếm các mệnh đề phổ biến trong lĩnh vực đột biến) dù kích thước nhỏ hơn của các bài toán dẫn đến việc tăng trưởng ít hơn (dao động từ 2.5 đến 30).

Từ khóa

#θ-subsumption #Lập trình Logic Quy nạp #Giải quyết Ràng buộc #Phức tạp Ngẫu nhiên #Django.

Tài liệu tham khảo

Alphonse, E., & Rouveirol, C. (2000). Lazy propositionalisation for relational learning. In W. Horn (Ed.), Proceedings of the 14th European Conference on Artificial Intelligence, ECAI’OO (pp. 256–260). IOS Press. Agrawal, R., & Srikant, R. (1994). Fast algorithms for mining association rules. In J. B. Bocca, M. Jarke, & C. Zaniolo (Eds.), Proceedings of the 20th Int. Conf Very Large Data Bases, VLDB (pp. 487–499). Morgan Kaufmann. Augier, S. (2000). Apprentissage Supervise relationnel par algorithmes dvolution. PhD thesis, Universit6 de Paris 11-Orsay. Blockeel, H., Dehaspe, L., Demoen, B., Janssens, G., Ramon, J., & Vandecasteele, H. (2000). Executing query packs in ILP. In Proceedings of the o10th International Conference on Inductive Logic Programming, LNAI 1866 (pp. 60–77). Berlin: Springer-Verlag. Brazdil, P., Gama, J., & Henery, B. (1994). Characterizing the applicability of classification algorithms using meta-level learning. In Proceedings of the 7th European Conference on Machine Learning:pp. 83–102). Lecture Notes in Artificial Intelligence, Springer. Botta, M., Giordana, A., Saitta, L., & Sebag, M. (2003). Relational learning as searh in aritical region. Journal of Machine Learning Research, 4, 431–463. Bensusan, H., & Kalousis, A. (2001). Estimating the predictive accuracy ofa:classifier. In P. Flach, & L. De Raedt (Eds.), Proceedings of the 12th European conference on machine learning (pp. 25–36). Springer Verlag. Blake, C., Keogh, E., & Merz, C.J. (1998). UCI Repository of-machine learning databases. http://www.ics. uci.edu/’mlearn/MLRepository.html. Bessiere, C., & Rtgin, J.-C. (1996). Mac and combined heuristics: Two reasons to forsake FC (and CBJ ?) on hard problems. In Proceedings of the 2nd Int. Conf on Principles and Practice of Constraint Programming (pp. 61–75). Blockeel, H., & DeRaedt, L. (1998). Top-downinduction of first order logical decision trees. Artificial Intelligence, 101:1/2, 285–297. Chen, X. (2000). A theoretical comparison of selected CSP solving and modeling techniques. PhD thesis, University of Alberta, Canada. Cheeseman, P., Kanefsky, B., & TaylorW.M. (1991). Where the really hard problems are. In Proceedings of lnt. Joint Conf on Artificial Inteligce, IJCAI’91 (pp. 331–337). Costa, V., Srinivasan, A., Camacho, R., Blockeel, H., Demoen, B., Janssens, G., Struyf, J., Vandecasteele, H., & Van Laer, W. (2004). Query transformations for improving the efficiency of ILP systems. Journal of Machine Learning Research, 4, 465–491. Dzeroski, S., & Lavrac N. (Eds.). (2001). Relational data mining. Springer Verlag. Dolsak, D. & Muggleton, S. (1991). The application of ILP to finite element mesh design. In S. Muggleton (Ed.), Proceedingsof the First International Workshop on Inductive Logic Programming (pp. 453–472). Dechter, R., & Pearl, J. (1989). Tree clustering for constraint networks. Artificial Intelligence, 38, 353–366. Dehaspe, L., & De Raedt, L. (1997). Mining association rules in multiple relations. In Proceedings of the 7th International Workshop on Inductive Logic Programming, LNCS 1297 (pp. 125–132). Berlin: Springer-Verlag. Esposito, F., Fanizzi, N., Ferilli, S., & Semeraro, G. (2000). Ideal theory refinement under object identity. In P. Langley (Ed.), Proceedings of the 17th International Conference on Machine Learning (pp. 263–270). Morgan Kaufmann. Furnkranz, J., & Petrak, J. (2001). An evaluation of landmarking variants. Technical report, Austrian Research Institute for Artificial Intelligence. Gomes, C.P., Selman, B., Crato, N., & Kautz, H.A. (2000). Heavy-tailed phenomena in satisfiability and constraint satisfaction problems. Journal ofAutomated Reasoning, 24:1/2, 67–100. Gyssens, M., Jeavons, PG., & Cohen, D.A. (1994). Decomposing constraint satisfaction problems using database techniques. Artificial Intelligence, 66, 57–89. Gottlob, G., & Leitsch, A. (1985). On the efficiency of subsumption algorithms. Journal of the Association for Computing Machinery, 32:2, 280–295. Gottlob, G., Leone, N., & Scarcello, F. (2000). A comparison of structural CSP decomposition methods. Artificial Intelligence, 124:2, 243–282. Gent, IP., MacIntyre, E., Prosser, P., & Walsh, T. (1996). The constrainedness of search. In AAAI/IAAI, vol. 1 (pp. 246–252). Giordana, A., & Saitta, L. (2000). Phase transitions in relational learning. Machine Learning, 2, 217–251. Hogg, T., Huberman, B.A., & Williams, C.P. (Eds.). (1996). Artificial intelligence: Special issue on frontiers in problem solving: Phase transitions and complexity, vol. 81(1/2), Elsevier. Hirata, K. (2003). On condensation of a clause. In T. Horvath, & A. Yamamoto (Eds.), Proceedings of the 15th Int. Conf on Inductive Logic Programming, LNAI (pp. 164–179). Springer-Verlag. Hogg, T. (1996). Refining the phase transition in combinatorial search. Artificial Intelligence, 81, 127–154. Kalousis, A. (2002). Algorithm Selection via Meta-Learning. PhD thesis, Universit6 de Genve, Centre Universitaire d’Informatique. Kietz, J.-U., & Ltibbe, M. (1994). An efficient subsumption algorithm for inductive logic programming. In W. Cohen, & H. Hirsh (Eds.), Proceedings of the 11th International Conference on Machine Learning (pp. 130–137). Morgan Kaufmann. Kramer, S., Lavrac, N., & Flach, P. (2001). Propositionalization approaches torelational data mini. In S. Dzeroski, & N. Lavrac (Eds.), Relational data mining (pp. 262–291). Springer-Verlag. King, R.D., Srinivasan, A., & Steinberg, M.J.E. (1995). Relating chemical activity to structure: An examination of ILP successes. New Gen. Comput., 13. Lachiche, N. & Flach, P.A. (2003). A true first-order bayesian classifier. In Si. Matwin (Ed.), Proceedings of the 14th Int. Conf on Inductive Logic Programming, LNAI (pp. 133–148). Springer. Lloyd, J. (2003). Logic for learning: Learning comprehensive theories frostructured data. Springer-Verlag. Mackworth, A.K. (1977). Consistency in networks of relations. Arficial Intelligence, 8, 99–118. Di Mauro, N., Basile, T.M.A., Ferilli, S., Esposito, F., & Fanizzi:N. (2003). An exhaustive matching procedure for the improvement of learning efficiency. In T. Horvath & A. Yamamoto (Eds.), Proceedings ofthe 15th Int. Conf on Inductive Logic Programming, LNAI (pp. 112–129): Springer-Verlag. Muggleton, S., & De Raedt, L. (1994). Inductive itlgic programming: Theory and methods. Journal of Logic Programming, 19, 629–679. Maloberti, J., & Sebag, M. (2001). Theta-subsumptlon in a constraint satisfaction perspective. In C. Rouveirol, & M. Sebag (Eds.), Proceedings of thel3th Inductive Logic Programming, LNAI 2157 (pp. 164–178). Springer-Verlag. Maloberti, J., & Suzuki, E. (2003). Improving efficiency of frequent query discovery by eliminating non-relevant candidates. In Proceeding of t:he6th International Conference on Discovery Science (DS 2003), LNAI (pp. 219–231), Berlin, Hidelberg, New York, Springer-Verlag. Muggleton, S. (1995). Inverse entailment and PROGOL. New Gen. Comput., 13,245–286. Nienhuys-Cheng, S., & de Wolf, R. (1997). Foundations of inductive logic programming. Springer-Verlag. Nedellec, C., Roueiol, C., Ad, H., Bergadano, F., & Tausend, B. (1996). Declarative bias in ILP. In L. de Raedt (Ed.), AdvancsI ILP (pp. 82–103). IOS Press. Pfahringer, B. Bensusan, H., & Giraud-Carrier, C. (2000). Meta-learning by landmarking various learning algorithms. In Proceedings of the 17th International Conference on Machine Learning (pp. 743–750). Morgan Kaufmann. Pefia-Castillo, L., & Wrobel, S. (2002). Macro-operators in multirelational learning: A search-space reduction technique. In H. Mannila et al. (Eds.), Proceedings of the 13th European Conference on Machine Learning, LNCS 2430 (pp. 357–368). Berlin: Springer-Verlag. Plotkin, G. (1970). A note on inductive generalization. In B. Meltzer, & D. Michie (Eds.), Machine Intelligence, vol. 5 (pp. 153–163). Edinburgh University Press. Prosser, P. (1993). Hybrid algorithms for the constraint satisfaction problem. Computational Intelligence, 9, 268–299. Quinlan, J.R. (1990). Learning logical definitions from relations. Machine Learning, 5:3, 239–266. De Raedt, L. (1997). Logical settings for concept learning. Artificial Intelligence, 95:1, 187–201. De Raedt, L., & Bruynooghe, M. (1993). A theory of clausal discovery. In Proceedings of Int. Joint Conf on Artificial Intelligence, IJCAI’93 (pp. 1058–1063). Morgan Kaufmann. Read, R.C., & Corneil, D.G. (1977). The graph isomorph disease. Journal of Graph Theory, 1, 339–363. Robinson, J. (1965). A machine-oriented logic based on the resolution principle. Journal of the ACM, 12:1, 23–41. Scheffer, T., Herbrich, R., & Wysotzki, F. (1997). Efficient 0-subsumption based on graph algorithms. In S. Muggleton (Ed.), Proceedings Int. Workshop on Inductive Logic Programming (pp. 212–228). Springer-Verlag. Sebag. M., & Rouveirol, C. (2000). Resource-bounded relational reasoning: Induction and deduction through stochastic matching. Machine Learning, 38, 41–62. Srinivasan, A. (1997). The predictive toxicology evaluation challenge. In Proceedings of Int. Joint Conf on Artificial Intelligence, IJCAI’97 (pp. 4–8). Morgan Kaufmann. Srinivasan, A. (2001). The Aleph manual, http://we b.cox.ac.uk/oucl/research/areas/machlearn/Aleph/. Tsang, E. (1993). Foundations of constraint satisfaction. Academic Press.