Giải phóng tính toán trực tuyến thông qua học tăng cường chú ý bản đồ đặc trưng tích chập sâu và chính sách thưởng thích ứng

Wireless Networks - Tập 29 - Trang 3769-3779 - 2023
P. Anusha1, V. Mary Amala Bai1
1Department of Information Technology, Noorul Islam Centre for Higher Education, Kumaracoil, Thuckalay, Kanyakumari(Dt), India

Tóm tắt

Sự ổn định trong các đặc trưng hàng đợi với công suất trung bình và tối đa hóa việc xử lý dữ liệu là một vấn đề nghiên cứu nổi bật trong bất kỳ mạng lưới nào. Điều này cần được đảm bảo ngay cả trong các mô hình Điện toán Biên Di động (MEC), nơi việc tích hợp liền mạch và liên tục các ứng dụng đổi mới được cung cấp với độ trễ thấp và chất lượng cải tiến. Một kế hoạch giải phóng là cần thiết để đảm bảo điều này với sự điều chỉnh công suất xử lý và chi phí hoạt động mạng tại các nút biên, điều này sẽ cải thiện hiệu quả của IoT với điện toán biên. Một thuật toán giải phóng dựa trên nhiệm vụ được đề xuất trong bài báo này nhằm đưa ra các quyết định thông minh hơn cho việc phân bổ tài nguyên và tăng cường khả năng tính toán đến máy chủ MEC bằng cách cho phép thiết bị di động (MD) giải phóng các tác vụ tính toán nặng về các Multi-eNodeB (Multi-eNB) gần nhất dựa trên trạng thái kênh biến đổi theo thời gian mong muốn. Một mô hình thiết bị MEC không dây đang được nhiều người dùng sử dụng để phát sóng tác vụ của họ được xem xét. Sự ổn định của hàng đợi và việc giảm thiểu năng lượng tiêu thụ trong khi tối đa hóa phần thưởng ngay cả dưới thời hạn hạn chế được duy trì bởi khung phụ đề mới do chúng tôi đề xuất, có tên là DCARL–ARP (Học Tăng Cường Chú Ý Tích Chập Sâu - Chính Sách Thưởng Thích Ứng), kết hợp giữa tối ưu hóa Tích Chập Sâu và tối ưu hóa Lyapunov với cơ chế tập trung chú ý bản đồ đặc trưng. DCARL–ARP được tích hợp để đưa ra quyết định chọn lựa trạng thái hợp lý trong các khoảng thời gian khác nhau. Phân tích và đánh giá hiệu suất chứng minh rằng DCARL–ARP có tỷ lệ tính toán tối ưu thích hợp cho việc thực hiện thời gian thực trong các điều kiện kênh biến đổi. Đánh giá thực nghiệm cho thấy cơ chế này có thể giảm hiệu quả mức tiêu thụ năng lượng trung bình cho việc thực hiện lên đến 0.02% và chiều dài hàng đợi dữ liệu trung bình lên tới 50%.

Từ khóa


Tài liệu tham khảo

Li, Z., Chang, V., Ge, J., Pan, L., Hu, H., & Huang, B. (2021). Energy-aware task offloading with deadline constraint in mobile edge computing. EURASIP Journal on Wireless Communications and Networking. https://doi.org/10.1186/s13638-021-01941-3 Mach, P., & Becvar, Z. (2017). Mobile edge computing: A survey on architecture and computation offloading. IEEE Communications Surveys & Tutorials, 19(3), 1628–1656. Xu, X., Zhang, X., Gao, H., Xue, Y., Qi, L., & Dou, W. (2020). BeCome: Blockchain-enabled computation offloading for IoT in mobile edge computing. IEEE Trans. Ind. Inform., 16(6), 4187–4195. Peng, K., Zhu, M., Zhang, Y., Liu, L., Zhang, J., Leung, V. C. M., & Zheng, L. (2019). An energy- and cost-aware computation offloading method for workfow applications in mobile edge computing. EURASIP Journal on Wireless Communications and Networking, 19, 207. Bae, S., Han, S. & Sung, Y. (2020). A reinforcement learning formulation of the lyapunov optimization: Application to edge computing systems with queue stability. IEEE Transactions on Networking. Bi, S., Huang, L., Wang, H., & Zhang, Y. J. A. (2021). Lyapunov-guided deep reinforcement learning for stable online computation offloading in mobile-edge computing networks. IEEE Transactions on Wireless Communications, 20, 7519. Bertsekas, D. P. (1995). Dynamic programming and optimal control. Athena Scientific Belmont. Yan, J., Bi, S., Zhang, Y. J., & Tao, M. (2020). Optimal task offloading and resource allocation in mobile-edge computing with inter-user task dependency. IEEE Transactions on Wireless Communications, 19(1), 235–250. You, C., Huang, K., & Chae, H. (2016). Energy efficient mobile cloud computing powered by wireless energy transfer. IEEE Journal on Selected Areas in Communications, 34(5), 1757–1771. Zhang, W., Wen, Y., Guan, K., Kilper, D., Luo, H., & Wu, D. O. (2013). Energy optimal mobile cloud computing under stochastic wireless channel. IEEE Transactions on Wireless Communications, 12(9), 4569–4581. Bi, S., Huang, L., & Zhang, Y. J. (2020). Joint optimization of service caching placement and computation offloading in mobile edge computing systems. IEEE Transactions on Wireless Communications, 19(7), 4947–4963. Bi, S., & Zhang, Y. J. (2018). Computation rate maximization for wireless powered mobile-edge computing with binary computation offloading. IEEE Transactions on Wireless Communications, 17(6), 4177–4190. Dinh, T. Q., Tang, J., La, Q. D., & Quek, T. Q. (2017). Offloading in mobile edge computing: Task allocation and computational frequency scaling. IEEE Transactions on Communications, 65(8), 3571–3584. Li, J., Gao, H., Lv, T. and Lu, Y. (2018). Deep reinforcement learning based computation offloading and resource allocation for MEC. In IEEE Wireless Communications and Networking Conference(WCNC). Min, M., Xiao, L., Chen, Y., Cheng, P., Wu, D., & Zhuang, W. (2019). Learning based computation offloading for IoT devices with energy harvesting. IEEE Transactions on Vehicular Technology, 68(2), 1930–1941. Wei, Y., Yu, F. R., Song, M., & Han, Z. (2019). Joint optimization of caching, computing, and radio resources for fog-enabled IoT using natural actor critic deep reinforcement learning. IEEE Internet of Things Journal, 6(2), 2061–2073. Huang, L., Bi, S., & Zhang, Y. J. (2020). Deep reinforcement learning for online computation offloading in wireless powered mobile-edge computing networks. IEEE Transactions on Mobile Computing, 19(11), 2581–2593. Chen, X., Zhang, H., Wu, C., Mao, S., Ji, Y., & Bennis, M. (2019). Optimized computation offloading performance in virtual edge computing systems via deep reinforcement learning. IEEE Internet of Things Journal, 6(3), 4005–4018. Eom, H., Juste, P.S., Figueiredo, R., Tickoo, O., Illikkal, R. & Iyer, R. (2013). Machine learning-based runtime scheduler for mobile offloading framework. In IEEE/ACM 6th International Conference on Utility and Cloud Computing. Liu, Y., Yu, H., Xie, S., & Zhang, Y. (2019). Deep Reinforcement learning for offloading and Resource allocation in vehicle edge computing and networks. IEEE Transactions on Vehicular Technology, 68(11), 11158–11168. Hu, Z., Wan, K., Gao, X., & Zhai, Y. (2019). A dynamic adjusting reward function method for deep reinforcement learning with adjustable parameters. Hindawi Mathematical Problems in Engineering. https://doi.org/10.1155/2019/7619483 Kaur, A., Kaur, B., Singh, P., Devgan, M. S., & Toor, H. K. (2020). Load balancing optimization based on deep learning approach in cloud environment. International Journal of Information Technology and Computer Science, 12, 8. Che, H., Bai, Z., Zuo, R. and Li, H. (2020) A deep reinforcement learning approach to the optimization of data center task scheduling. Wiley. Neely, M. J. (2010). Stochastic network optimization with application to communication and queuing systems. Synthesis Lectures on Communication Networks, 3(1), 1–211. Mao, Y., Zhang, J., & Letaief, K. B. (2016). Dynamic computation offloading for mobile-edge computing with energy harvesting devices. IEEE Journal on Selected Areas in Communications, 34(12), 3590–3605. Du, J., Yu, F. R., Chu, X., Feng, J., & Lu, G. (2019). Computation offloading and resource allocation in vehicular networks based on dual-side cost minimization. IEEE Transactions on Vehicular Technology, 68(2), 1079–1092. Liu, C., Bennis, M., Debbah, M., & Poor, H. V. (2019). Dynamic task offloading and resource allocation for ultra-reliable low-latency edge computing. IEEE Transactions on Communications, 67(6), 4132–4150. Xu, X., Zhang, X., Gao, H., Xue, Y., Qi, L., & Dou, W. (2019). BeCome: Blockchain-enabled computation offloading for IoT in mobile edge computing. IEEE Transactions on Industrial Informatics, 16, 4187. Sun, H., Chen, X., Shi, Q., Hong, M., Fu, X., & Sidiropoulos, N. D. (2017). Learning to optimize: Training deep neural networks for wireless resource management. In Proc. IEEE SPAWC, pp. 1–6. Ye, H., Li, G. Y., & Juang, B. H. (2018). Power of deep learning for channel estimation and signal detection in OFDM systems. IEEE Wireless Communication Letters, 7(1), 114–117. Xiao, L., Li, Y., Han, G., Dai, H., & Poor, H. V. (2018). A secure mobile crowd sensing game with deep reinforcement learning. IEEE Transactions on Information Forensics and Security, 13(1), 35–47. Shaikh, F. K., & Zeadally, S. (2016). Energy harvesting in wireless sensor networks: A comprehensive review. Renewable and Sustainable Energy Reviews, 55, 1041. Huang, B., Li, Z., Tang, P., Wang, S., Zhao, J., Hu, H., Li, W., & Chang, V. (2019). Security modeling and efficient computation offloading for service workflow in mobile edge computing. Future Generation Computer Systems, 97, 755.