
Monthly Weather Review
SCIE-ISI SCOPUS (1960,1973,1976-1994,1996-2023)
1520-0493
0027-0644
Mỹ
Cơ quản chủ quản: AMER METEOROLOGICAL SOC , American Meteorological Society
Các bài báo tiêu biểu
This paper proposes a revised vertical diffusion package with a nonlocal turbulent mixing coefficient in the planetary boundary layer (PBL). Based on the study of Noh et al. and accumulated results of the behavior of the Hong and Pan algorithm, a revised vertical diffusion algorithm that is suitable for weather forecasting and climate prediction models is developed. The major ingredient of the revision is the inclusion of an explicit treatment of entrainment processes at the top of the PBL. The new diffusion package is called the Yonsei University PBL (YSU PBL). In a one-dimensional offline test framework, the revised scheme is found to improve several features compared with the Hong and Pan implementation. The YSU PBL increases boundary layer mixing in the thermally induced free convection regime and decreases it in the mechanically induced forced convection regime, which alleviates the well-known problems in the Medium-Range Forecast (MRF) PBL. Excessive mixing in the mixed layer in the presence of strong winds is resolved. Overly rapid growth of the PBL in the case of the Hong and Pan is also rectified. The scheme has been successfully implemented in the Weather Research and Forecast model producing a more realistic structure of the PBL and its development. In a case study of a frontal tornado outbreak, it is found that some systematic biases of the large-scale features such as an afternoon cold bias at 850 hPa in the MRF PBL are resolved. Consequently, the new scheme does a better job in reproducing the convective inhibition. Because the convective inhibition is accurately predicted, widespread light precipitation ahead of a front, in the case of the MRF PBL, is reduced. In the frontal region, the YSU PBL scheme improves some characteristics, such as a double line of intense convection. This is because the boundary layer from the YSU PBL scheme remains less diluted by entrainment leaving more fuel for severe convection when the front triggers it.
This paper describes the Simple Ocean Data Assimilation (SODA) reanalysis of ocean climate variability. In the assimilation, a model forecast produced by an ocean general circulation model with an average resolution of 0.25° × 0.4° × 40 levels is continuously corrected by contemporaneous observations with corrections estimated every 10 days. The basic reanalysis, SODA 1.4.2, spans the 44-yr period from 1958 to 2001, which complements the span of the 40-yr European Centre for Medium-Range Weather Forecasts (ECMWF) atmospheric reanalysis (ERA-40). The observation set for this experiment includes the historical archive of hydrographic profiles supplemented by ship intake measurements, moored hydrographic observations, and remotely sensed SST. A parallel run, SODA 1.4.0, is forced with identical surface boundary conditions, but without data assimilation. The new reanalysis represents a significant improvement over a previously published version of the SODA algorithm. In particular, eddy kinetic energy and sea level variability are much larger than in previous versions and are more similar to estimates from independent observations. One issue addressed in this paper is the relative importance of the model forecast versus the observations for the analysis. The results show that at near-annual frequencies the forecast model has a strong influence, whereas at decadal frequencies the observations become increasingly dominant in the analysis. As a consequence, interannual variability in SODA 1.4.2 closely resembles interannual variability in SODA 1.4.0. However, decadal anomalies of the 0–700-m heat content from SODA 1.4.2 more closely resemble heat content anomalies based on observations.
Ensembles used for probabilistic weather forecasting often exhibit a spread-error correlation, but they tend to be underdispersive. This paper proposes a statistical method for postprocessing ensembles based on Bayesian model averaging (BMA), which is a standard method for combining predictive distributions from different sources. The BMA predictive probability density function (PDF) of any quantity of interest is a weighted average of PDFs centered on the individual bias-corrected forecasts, where the weights are equal to posterior probabilities of the models generating the forecasts and reflect the models' relative contributions to predictive skill over the training period. The BMA weights can be used to assess the usefulness of ensemble members, and this can be used as a basis for selecting ensemble members; this can be useful given the cost of running large ensembles. The BMA PDF can be represented as an unweighted ensemble of any desired size, by simulating from the BMA predictive distribution.
The BMA predictive variance can be decomposed into two components, one corresponding to the between-forecast variability, and the second to the within-forecast variability. Predictive PDFs or intervals based solely on the ensemble spread incorporate the first component but not the second. Thus BMA provides a theoretical explanation of the tendency of ensembles to exhibit a spread-error correlation but yet be underdispersive.
The method was applied to 48-h forecasts of surface temperature in the Pacific Northwest in January–June 2000 using the University of Washington fifth-generation Pennsylvania State University–NCAR Mesoscale Model (MM5) ensemble. The predictive PDFs were much better calibrated than the raw ensemble, and the BMA forecasts were sharp in that 90% BMA prediction intervals were 66% shorter on average than those produced by sample climatology. As a by-product, BMA yields a deterministic point forecast, and this had root-mean-square errors 7% lower than the best of the ensemble members and 8% lower than the ensemble mean. Similar results were obtained for forecasts of sea level pressure. Simulation experiments show that BMA performs reasonably well when the underlying ensemble is calibrated, or even overdispersed.
Các hệ thống dự đoán tổ hợp thường cho thấy mối tương quan giữa độ lan tỏa và sai số dương, nhưng chúng chịu tác động của độ thiên về dự báo và sai số phân tán, do đó không được hiệu chỉnh. Công trình này đề xuất việc sử dụng thống kê đầu ra mô hình tổ hợp (EMOS), một kỹ thuật xử lý sau dễ triển khai nhằm giải quyết cả độ thiên lệch và hiện tượng phân tán dưới, đồng thời xem xét mối quan hệ giữa độ lan tỏa và kỹ năng dự đoán. Kỹ thuật này dựa trên hồi quy tuyến tính nhiều biến và tương tự như phương pháp siêu tổ hợp, đã được sử dụng truyền thống cho các dự báo kiểu xác định. Kỹ thuật EMOS tạo ra các dự báo xác suất dưới dạng các hàm mật độ xác suất dự đoán Gaussian (PDF) cho các biến thời tiết liên tục và có thể được áp dụng cho đầu ra mô hình theo lưới. Giá trị trung bình dự đoán của EMOS là một trung bình có trọng số đã được hiệu chỉnh độ thiên lệch của các dự báo thành viên trong tổ hợp, với các hệ số có thể được diễn giải theo các đóng góp tương đối của các mô hình thành viên vào tổ hợp, và cung cấp một dự đoán kiểu xác định cạnh tranh cao. Phương sai dự đoán của EMOS là một hàm tuyến tính của phương sai tổ hợp. Để điều chỉnh các hệ số EMOS, phương pháp ước lượng điểm số xác suất có thứ hạng liên tục tối thiểu (CRPS) được giới thiệu. Kỹ thuật này tìm các giá trị hệ số tối ưu hóa CRPS cho dữ liệu huấn luyện. Kỹ thuật EMOS đã được áp dụng cho các dự báo áp suất khí quyển và nhiệt độ bề mặt trong 48 giờ tại Bắc Mỹ Thái Bình Dương vào mùa xuân năm 2000, sử dụng tập hợp mesoscale của Đại học Washington. Khi so với tổ hợp đã được hiệu chỉnh độ thiên lệch, các dự báo kiểu xác định EMOS về áp suất khí quyển có sai số bình phương trung bình thấp hơn 9% và sai số tuyệt đối trung bình thấp hơn 7%. Các PDF dự đoán từ EMOS rất sắc nét và được hiệu chỉnh tốt hơn nhiều so với tổ hợp nguyên thủy hoặc tổ hợp đã hiệu chỉnh độ thiên lệch.
Bài báo này tổng hợp sự phát triển của bộ lọc Kalman theo kiểu tổ hợp (EnKF) cho việc đồng hóa dữ liệu khí quyển. Chúng tôi đặc biệt chú ý đến những tiến bộ gần đây và những thách thức hiện tại. Các tính chất đặc trưng của ba biến thể đã được thiết lập tốt của thuật toán EnKF sẽ được thảo luận đầu tiên. Với kích thước hạn chế của tổ hợp và sự tồn tại không thể tránh khỏi của các lỗi có nguồn gốc không rõ (tức là lỗi hệ thống), đã có nhiều phương pháp được đề xuất để định vị ảnh hưởng của các quan sát và để tính đến những lỗi này. Tuy nhiên, vẫn còn những thách thức; ví dụ, về việc định vị các hiện tượng đa quy mô (cả về thời gian và không gian). Đối với EnKF nói chung, nhưng đặc biệt là các ứng dụng độ phân giải cao, mong muốn sử dụng một khoảng thời gian đồng hóa ngắn. Điều này thúc đẩy việc tập trung vào các phương pháp duy trì cân bằng trong suốt quá trình cập nhật EnKF. Bài báo cũng thảo luận về các hệ thống EnKF khu vực hạn chế, đặc biệt là liên quan đến việc đồng hóa dữ liệu radar và các ứng dụng theo dõi bão mạnh và xoáy thuận nhiệt đới. Dường như ít sự chú ý hơn đã được dành cho việc tối ưu hóa quá trình đồng hóa các quan sát bức xạ vệ tinh của EnKF, mà khối lượng ngày càng tăng của nó đã đóng vai trò quan trọng trong việc cải thiện dự đoán thời tiết toàn cầu. Cũng có một xu hướng tại nhiều trung tâm nghiên cứu và thực hiện các hệ thống hỗn hợp để tận dụng cả hai phương pháp đồng hóa dữ liệu theo kiểu tổ hợp và biến thể; điều này đặt ra thêm nhiều thách thức và không rõ cách nó sẽ phát triển. Kết luận rằng, mặc dù có hơn 10 năm kinh nghiệm vận hành, vẫn còn nhiều vấn đề chưa giải quyết mà có thể được hưởng lợi từ nghiên cứu sâu hơn.
Nội dung
Mô tả chung...4491 Bộ lọc ngẫu nhiên và xác định...4492 Bộ lọc ngẫu nhiên...4492 Bộ lọc xác định...4492 Bộ lọc tuần tự hoặc địa phương...4493 Các bộ lọc Kalman theo kiểu tổ hợp tuần tự...4493 Bộ lọc Kalman biến đổi nhóm địa phương...4494 Vector trạng thái mở rộng...4494 Các vấn đề đối với sự phát triển của các thuật toán...4495 Phương pháp Monte Carlo...4495 Xác thực độ tin cậy...4497 Sử dụng các bộ lọc nhóm không có sự đồng huyết...4498 Lỗi mẫu do kích thước tổ hợp hạn chế: Vấn đề hạng...4498 Định vị hiệp phương sai...4499 Định vị trong bộ lọc tuần tự...4499 Định vị trong LETKF...4499 Các vấn đề với định vị...4500 Tóm tắt...4501 Thổi phồng hiệp phương sai...4501 Thổi phồng cộng...4501 Thổi phồng nhân...4502 Thư giãn thông tin tổ hợp trước...4502 Các vấn đề với việc thổi phồng...4503 Phát tán và cắt ngắn...4503 Lỗi trong các tham số hóa vật lý...4504 Rối loạn xu hướng vật lý...4504 Các phương pháp đa mô hình, đa vật lý và đa tham số...4505 Hướng đi tương lai...4505 Tính hợp lý của các nguồn lỗi...4506 Nhu cầu về các phương pháp cân bằng...4506 Các phương pháp lọc theo thời gian...4506 Về các khoảng thời gian đồng hóa ngắn hơn...4507 Giảm bớt các nguồn mất cân bằng...4507 Các điều kiện biên và tính nhất quán giữa nhiều miền...4509 Khởi tạo tổ hợp bắt đầu...4510 Các bước tiền xử lý cho các quan sát radar...4510 Sử dụng các quan sát radar cho các phân tích quy mô đối lưu...4511 Sử dụng các quan sát radar cho các phân tích xoáy thuận nhiệt đới...4511 Các vấn đề khác liên quan đến đồng hóa dữ liệu LAM...4511 Định vị hiệp phương sai...4512 Độ dày dữ liệu...4513 Quy trình sửa lỗi thiên lệch...4513 Tác động của việc lặp lại hiệp phương sai...4514 Các giả định về lỗi quan sát...4514 Khuyến nghị liên quan đến các quan sát vệ tinh...4515 Các tham số ảnh hưởng đến chất lượng...4515 Tổng quan về các thuật toán song song hiện tại...4516 Tiến trình phát triển kiến trúc máy tính...4516 Các vấn đề thực tiễn...4517 Tiến gần đến khu vực xám...4518 Tóm tắt...4518 Hiệp phương sai lỗi nền hỗn hợp...4519 E4DVar với biến kiểm soát Không sử dụng các mô hình tuyến tính hóa với 4DEnVar...4520 Thuật toán tăng trưởng hỗn hợp...4521 Các vấn đề và khuyến nghị mở...4521 Bộ lọc ngẫu nhiên hay xác định...4522 Bản chất của lỗi hệ thống...4522 Đi xa hơn những quy mô đồng bộ...4522 Các quan sát từ vệ tinh...4523 Các hệ thống hỗn hợp...4523 Tương lai của EnKF...4523
Phân kỳ bộ lọc cổ điển...4524 Phân kỳ bộ lọc thảm họa...4524