Phân tích biến tổng hợp khẳng định (Confirmatory composite analysis – CCA) là một quy trình phương pháp luận thống kê có hệ thống nhằm xác nhận chất lượng của các mô hình đo lường trong mô hình phương trình cấu trúc bình phương tối thiểu một phần (PLS-SEM). Nguyên nhân chính ra đời quy trình CCA là do phương pháp Phân tích nhân tố khẳng định (CFA) truyền thống không hoàn toàn tương thích với cơ chế tối đa hóa phương sai của thuật toán PLS-SEM. Giải pháp tối ưu, chuẩn xác và nhanh nhất để đánh giá độ tin cậy cũng như giá trị của thang đo dạng kết quả (reflective) và nguyên nhân (formative) là áp dụng hệ thống các bước của Phân tích biến tổng hợp khẳng định thay vì sử dụng các chỉ số độ phù hợp (Goodness-of-Fit – GOF) vốn chỉ dành cho CB-SEM.

1. Tổng Quan & Lý Thuyết Nền Tảng (Overview & Theoretical Foundations)
1.1 Thông tin định danh bài báo
- Tiêu đề gốc: Assessing measurement model quality in PLS-SEM using confirmatory composite analysis.
- Tiêu đề tiếng Việt: Đánh giá chất lượng mô hình đo lường trong PLS-SEM sử dụng phân tích biến tổng hợp khẳng định.
- Tác giả: Joe F. Hair Jr. (Top 1% toàn cầu các giáo sư Kinh doanh và Kinh tế, tác giả sách Multivariate Data Analysis), Matt C. Howard, Christian Nitzl.
- Tạp chí: Journal of Business Research 109 (2020) 101-110.
1.2 Bối cảnh thực tiễn & Khoảng trống nghiên cứu
Các nhà khoa học xã hội đã kiểm tra chất lượng đo lường trong nhiều thập kỷ thông qua lĩnh vực tâm trắc học (psychometrics). Quá trình này bắt nguồn từ phân tích câu hỏi (item analysis) do Guilford (1936) đề xuất , sau đó tiến hóa thành lý thuyết kiểm tra cổ điển (Charles Spearman, 1904). Trước đây, để đánh giá chất lượng đo lường, giới học thuật mặc định sử dụng Phân tích nhân tố khám phá (EFA) để giảm thiểu dữ liệu , và Phân tích nhân tố khẳng định (CFA) thuộc trường phái CB-SEM để xác nhận lý thuyết.
Tuy nhiên, khi PLS-SEM do Herman Wold (1982) phát triển bắt đầu bùng nổ từ năm 2005, một khoảng trống phương pháp luận lớn đã xuất hiện. Các nhà nghiên cứu liên tục nhầm lẫn khi áp dụng thuật ngữ và tiêu chuẩn của CFA (bao gồm cả các chỉ số GOF) vào cấu trúc của PLS-SEM. Để giải quyết triệt để sự nhầm lẫn này, Ed Rigdon (2014) đề xuất gọi các khái niệm trong PLS-SEM là “biến tổng hợp” (composites), và Henseler cùng cộng sự (2014) chính thức hóa khái niệm Phân tích biến tổng hợp khẳng định (CCA) như một quy trình chuẩn mực, độc lập và bắt buộc để kiểm định mô hình đo lường trong PLS-SEM.
1.3 Hệ thống Lý thuyết nền tảng (Theoretical Foundations)
Bài báo được xây dựng dựa trên sự phát triển của mô hình biến tổng hợp tuyến tính (linear composites). Dưới góc độ học thuật, CFA trích xuất các nhân tố dựa trên phương sai chung (common variance) và mô hình lấy mẫu miền. Ngược lại, Phân tích biến tổng hợp khẳng định (CCA) tính toán điểm số cấu trúc dựa trên tổng phương sai (total variance) nhằm tối đa hóa khả năng dự báo của các biến nội sinh. Điều này cho phép CCA tạo ra các điểm số khái niệm xác định (determinant construct scores) và vượt trội hơn CFA trong việc giữ lại số lượng lớn chỉ báo đo lường, từ đó tối ưu hóa phạm vi nội dung và giá trị khái niệm.

2. Khái Niệm Hóa và Cấu Trúc Khái Niệm (Conceptualization)
2.1 Định nghĩa và Phân loại Mô hình Đo lường
Phân tích biến tổng hợp khẳng định (CCA) là tập hợp các bước được thực hiện trong PLS-SEM nhằm xác nhận cả hai loại mô hình đo lường cốt lõi:
- Mô hình đo lường kết quả (Reflective Measurement Models): Giả định rằng biến tiềm ẩn (khái niệm) là nguyên nhân gây ra sự thay đổi ở các biến quan sát (chỉ báo). Một sự thay đổi trong khái niệm tiềm ẩn sẽ được phản ánh bằng sự thay đổi đồng thời trong tất cả các chỉ báo của nó. Các mũi tên chỉ từ cấu trúc lý thuyết hướng ra ngoài các chỉ báo.
- Mô hình đo lường nguyên nhân (Formative Measurement Models): Giả định rằng các biến quan sát hình thành nên hoặc gây ra biến tiềm ẩn. Các mũi tên đi từ chỉ báo hội tụ vào khái niệm. Việc loại bỏ hoặc thêm một chỉ báo bất kỳ sẽ làm thay đổi hoàn toàn định nghĩa và nội hàm của khái niệm đó.
2.2 Phân tích so sánh EFA, CCA và CFA
Để làm rõ sự khác biệt bản chất và khẳng định tính ưu việt của CCA, bảng dữ liệu có cấu trúc dưới đây tổng hợp các đặc tính cốt lõi:
| Đặc điểm cấu trúc | Phân tích nhân tố khám phá (EFA) | Phân tích biến tổng hợp khẳng định (CCA) | Phân tích nhân tố khẳng định (CFA) |
| Nền tảng phương sai | PCA: Tổng phương sai. Common Factor: Phương sai chung | Tổng phương sai (Total Variance) | Chỉ Phương sai chung (Common variance only) |
| Phạm vi phân tích | Chỉ Khám phá. Phân tích biến độc lập và phụ thuộc riêng biệt | Cả Khám phá và Khẳng định. Phân tích tất cả các biến cùng nhau | Chỉ Khẳng định. Phân tích tất cả các biến cùng nhau |
| Mục tiêu thống kê | Giảm thiểu dữ liệu | Khẳng định mô hình đo lường và dự báo biến phụ thuộc | Khẳng định mô hình đo lường |
| Tính tương quan | Phép xoay vuông góc tạo ra các nhân tố độc lập | Các biến tổng hợp có tương quan | Các biến tiềm ẩn có tương quan |
| Kiểm định giá trị | Giá trị bề mặt và nội dung | Giá trị hội tụ, Phân biệt, Mạng lưới & Dự báo | Giá trị hội tụ & Giá trị phân biệt (Chỉ mô hình reflective) |
| Tính xác định điểm số | Điểm nhân tố là không xác định (Indeterminant) | Điểm biến tổng hợp là xác định (Determinant) | Điểm nhân tố là không xác định (Indeterminant) |

3. Quy Trình Phát Triển Thang Đo (Scale Development Process)
Trong khuôn khổ của bài báo phương pháp luận này, tác giả thiết lập quy trình chuẩn hóa gồm các bước tuần tự để thực hiện Phân tích biến tổng hợp khẳng định tùy thuộc vào tính chất của thang đo.
3.1. Các bước CCA cho Mô hình Kết quả (Reflective)
Quy trình đánh giá bao gồm 7 bước đo lường chặt chẽ:
- Ước lượng hệ số tải và Mức độ ý nghĩa (Loadings & Significance): Hệ số tải chuẩn hóa (standardized loadings) của từng chỉ báo phải đạt giá trị ít nhất là 0.708. Giá trị t-statistic thu được từ thủ tục bootstrapping phải >= ±1.96 để đạt mức ý nghĩa thống kê 5% (two-tailed test).
- Độ tin cậy của chỉ báo (Indicator Reliability): Được tính bằng cách bình phương các hệ số tải riêng lẻ, cho biết chính xác lượng phương sai được chia sẻ giữa biến chỉ báo và khái niệm cơ bản của nó.
- Độ tin cậy tổng hợp (Composite Reliability – CR): CR là chỉ số chính xác hơn Cronbach’s Alpha vì nó được gán trọng số theo độ tin cậy thực tế của từng chỉ báo. CR phải >= 0.70. Tuy nhiên, nếu CR >= 0.95, các câu hỏi đang bị dư thừa (redundant) và đo lường trùng lặp một khía cạnh.
- Phương sai trích xuất trung bình (AVE – Giá trị hội tụ): Thu được bằng cách tính trung bình các độ tin cậy của chỉ báo. Ngưỡng chấp nhận bắt buộc là AVE >= 0.50 (50%).
- Giá trị phân biệt (Discriminant Validity): Thể hiện sự khác biệt biệt lập của một khái niệm. CCA yêu cầu sử dụng tỷ lệ dị nét-đồng nét của các tương quan (HTMT) với ngưỡng cắt nghiêm ngặt là < 0.85 hoặc < 0.90.
- Giá trị mạng lưới khái niệm (Nomological Validity): Tương quan điểm số của khái niệm đang nghiên cứu với các khái niệm khác trong mạng lưới (nomological net) để xác nhận chiều hướng tương tác đúng với nền tảng lý thuyết.
- Giá trị dự báo (Predictive Validity): Mức độ mà điểm số khái niệm có thể dự báo điểm số trên một thước đo tiêu chí được thu thập ở một thời điểm sau đó trong tương lai.
3.2. Các bước CCA cho Mô hình Nguyên nhân (Formative)
Tuyệt đối không sử dụng độ tin cậy tổng hợp (CR) hay AVE cho mô hình nguyên nhân, vì các chỉ báo định hình không nhất thiết phải tương quan với nhau. Quy trình bao gồm 5 bước:
- Giá trị hội tụ (Phân tích dư thừa – Redundancy Analysis): Đánh giá mức độ khái niệm nguyên nhân có tương quan thuận với một thước đo kết quả (reflective) của cùng khái niệm đó. Hệ số đường dẫn (path coefficient) tối thiểu khuyến nghị là >= 0.70.
- Đa cộng tuyến của chỉ báo (Indicator Multicollinearity): Vì điểm số mô hình formative được tính bằng hồi quy đa biến, đa cộng tuyến cao sẽ làm sai lệch trọng số. Hệ số phóng đại phương sai (VIF) phải <= 3.0. Nếu VIF > 3.0 hoặc tương quan hai biến >= 0.50, mô hình đang gặp vấn đề nghiêm trọng.
- Kích thước và mức độ ý nghĩa của trọng số (Outer Weights): Trọng số thể hiện sự đóng góp tương đối của từng chỉ báo vào việc hình thành khái niệm. Giá trị này phải có ý nghĩa thống kê (thường p <= 0.05, hoặc p <= 0.10 với kích thước mẫu nhỏ) thông qua bootstrapping.
- Đóng góp tuyệt đối của chỉ báo (Absolute Contribution): Được tính từ hệ số tải ngoài (outer loading). Một chỉ báo formative được coi là quan trọng tuyệt đối khi hệ số tải >= 0.50 và có ý nghĩa thống kê. Lưu ý khoa học: Không bao giờ loại bỏ một chỉ báo nguyên nhân chỉ dựa thuần túy vào tiêu chí thống kê mà bỏ qua đánh giá lý thuyết.
- Đánh giá giá trị dự báo: Tương tự như mô hình kết quả, điểm số khái niệm nguyên nhân phải có khả năng dự báo một tiêu chí trong tương lai.
4. Thang Đo Lường Chính Thức (Measurement Evaluation Metrics)
Thay vì cung cấp bảng câu hỏi khảo sát cụ thể, tài liệu học thuật gốc thiết lập hệ thống Thang đo Lường Chất lượng thống kê dùng làm mỏ neo chuẩn mực cho mọi nghiên cứu PLS-SEM. Dưới đây là bảng dữ liệu cấu trúc tổng hợp:
| Tiêu chí thống kê (Metrics) | Khái niệm đo lường (Tiếng Việt) | Ngưỡng chấp nhận chuẩn xác | Áp dụng cho mô hình |
| Indicator Loadings | Hệ số tải ngoài | >= 0.708 (t-statistic > ±1.96) | Reflective |
| Composite Reliability (CR) | Độ tin cậy tổng hợp | 0.70 – 0.95 | Reflective |
| AVE | Phương sai trích trung bình | >= 0.50 (50%) | Reflective |
| HTMT Ratio | Tỷ lệ dị nét – đồng nét | < 0.85 hoặc < 0.90 | Reflective |
| VIF | Hệ số phóng đại phương sai | <= 3.0 | Formative & Structural |
| Path Coefficient (Redundancy) | Hệ số đường dẫn (Giá trị hội tụ) | >= 0.70 so với biến đại diện | Formative |
| Indicator Weights | Trọng số chỉ báo ngoài | Mức ý nghĩa p <= 0.05 | Formative |

5. Đánh Giá Mô Hình Cấu Trúc (Structural Model Assessment)
Khác biệt cốt lõi của PLS-SEM là mục tiêu dự báo. Sau khi Phân tích biến tổng hợp khẳng định xác nhận thành công các mô hình đo lường, nhà nghiên cứu phải tiến hành 7 bước đánh giá mô hình cấu trúc:
- Đánh giá đa cộng tuyến mô hình cấu trúc: Kiểm tra chỉ số VIF giữa các cấu trúc tiềm ẩn độc lập. Nếu VIF <= 3.0, hiện tượng đa cộng tuyến không đáng lo ngại. Nếu tương quan hai biến giữa các điểm khái niệm > 0.50, kết quả hệ số đường dẫn có thể bị bóp méo.
- Hệ số đường dẫn (Path Coefficients): Kiểm tra kích thước và mức ý nghĩa thống kê của các mũi tên giả thuyết. Hệ số chuẩn hóa càng tiến gần đến giá trị tuyệt đối 1, sức mạnh dự báo sự thay đổi của biến phụ thuộc càng lớn.
- Hệ số xác định (R²): Thước đo sức mạnh dự báo trong mẫu (in-sample prediction) của các biến nội sinh. Mức độ R² cao thể hiện các biến độc lập giải thích tốt sự biến thiên của biến phụ thuộc dựa trên tập dữ liệu hiện tại.
- Kích thước tác động (f²): Đánh giá mức độ đóng góp dự báo của từng khái niệm độc lập. Theo quy tắc của Cohen (1988), f² > 0.02 là tác động nhỏ, > 0.15 là trung bình, và >= 0.35 là tác động lớn.
- Mức độ phù hợp dự báo (Q² – Blindfolding): Một kỹ thuật tái lấy mẫu. Giá trị Q² > 0 chứng minh mô hình có ý nghĩa dự báo. Các ngưỡng 0.25 và 0.50 tương ứng với mức độ phù hợp dự báo trung bình và lớn.
- Thuật toán PLSpredict (Dự báo ngoài mẫu): Đây là bước tiến phương pháp luận quan trọng nhất để khắc phục tình trạng quá khớp (overfitting) của các chỉ số trong mẫu. PLSpredict chia dữ liệu thành k nhóm (khuyến nghị k=10). Nhà nghiên cứu sử dụng Root Mean Squared Error (RMSE) hoặc Mean Absolute Error (MAE) để so sánh sai số dự báo của mô hình PLS với mô hình Hồi quy tuyến tính ngây thơ (LM benchmark). Nếu mô hình PLS có sai số thấp hơn LM benchmark cho tất cả các chỉ báo biến phụ thuộc, mô hình đạt sức mạnh dự báo ngoài mẫu cao.
- Phân tích nâng cao (Robustness checks): Thực hiện các kiểm định về tính phi tuyến, tính nội sinh (endogeneity), tính không đồng nhất chưa được quan sát (unobserved heterogeneity), và phân tích đa nhóm (multi-group analysis) để củng cố tính vững chắc của kết luận thống kê.

6. Mạng Lưới Quan Hệ Lý Thuyết (Nomological Network)
Một nguyên lý sống còn của Phân tích biến tổng hợp khẳng định so với CFA là tính mạng lưới. Khái niệm tổng hợp (composite) trong PLS-SEM không thể đứng độc lập mà bắt buộc phải nằm trong một cấu trúc nhân quả. Giá trị của một khái niệm phụ thuộc hoàn toàn vào mạng lưới định luật (nomological net) mà nó được nhúng vào.
- Tiền tố (Antecedents): Những yếu tố nguyên nhân khởi phát trạng thái của biến tổng hợp.
- Hậu tố (Consequences): Các biến số chịu tác động.
- Ví dụ ứng dụng: Nếu bạn đang nghiên cứu sự hài lòng trong công việc (job satisfaction) tác động lên hiệu suất (job performance), mạng lưới định luật này có thể được xác nhận thông qua việc đo lường tương quan với các biến phân loại như mức độ cam kết tổ chức (organizational commitment) hoặc độ tuổi nhân viên. Nếu hệ số tương quan khớp với hướng lý thuyết đã thiết lập trước đó, giá trị mạng lưới được khẳng định.
7. Hướng Dẫn Ứng Dụng Nghiên Cứu (Academic Implications)
Dưới góc độ là Giáo sư hướng dẫn phương pháp luận, tôi nhấn mạnh 3 chỉ dẫn cốt lõi cho các nghiên cứu sinh và giảng viên khi triển khai PLS-SEM:
- Từ bỏ tư duy sử dụng chỉ số GOF: Việc áp dụng các chỉ số Goodness-of-Fit (như SRMR, d_ULS, d_G) trong Phân tích biến tổng hợp khẳng định là một sai lầm nghiêm trọng về mặt nhận thức. PLS-SEM là mô hình tối đa hóa dự báo (causal-predictive). Việc ép buộc dùng GOF (vốn dựa trên triết lý xác nhận mô hình thuần túy của CFA) không những vô nghĩa mà còn có thể trừng phạt sức mạnh dự báo của mô hình. Hãy đánh giá mô hình bằng các tiêu chí của variance-based SEM.
- Nâng tầm luận văn với PLSpredict: R² và Q² chỉ cho bạn biết mô hình khớp với dữ liệu trong quá khứ tốt như thế nào (in-sample). Để bài báo khoa học mang tính đột phá và được xuất bản trên các tạp chí quốc tế Q1, bắt buộc phải báo cáo kết quả dự báo ngoài mẫu (out-of-sample) thông qua PLSpredict, so sánh cụ thể chỉ số RMSE giữa mô hình PLS và mô hình LM.
- Giải pháp xử lý Đa cộng tuyến Formative: Khi phân tích thang đo nguyên nhân và gặp mức VIF > 3.0, tuyệt đối không được tùy tiện xóa bỏ chỉ báo chỉ vì lý do thống kê. Loại bỏ chỉ báo formative đồng nghĩa với việc bạn đang tự cắt xén định nghĩa của khái niệm. Thay vào đó, hãy vận dụng tư duy lý thuyết để gom các chỉ báo có tương quan cao thành các “Cấu trúc bậc cao” (Higher-Order Constructs – HOCs).
8. Ứng Dụng Quản Trị Doanh Nghiệp (Managerial Implications)
Nghiên cứu hàn lâm này cung cấp kim chỉ nam cực kỳ thực tế cho các Giám đốc Marketing và nhà quản trị doanh nghiệp:
- Tối ưu hóa nguồn lực thông qua Trọng số Formative: Khi đo lường các khái niệm kinh doanh như “Trải nghiệm khách hàng” bằng mô hình nguyên nhân (bao gồm giá cả, cơ sở vật chất, thái độ nhân viên), các cấu trúc tuyến tính của CCA sẽ cung cấp hệ số Trọng số ngoài (Outer Weights). Nhà quản trị chỉ cần nhìn vào trọng số lớn nhất và có ý nghĩa thống kê để biết chính xác điểm chạm (touchpoint) nào đang định hình mạnh mẽ nhất trải nghiệm khách hàng. Từ đó, dồn 80% ngân sách marketing vào đúng điểm chạm đó thay vì dàn trải lãng phí.
- Tư duy dự báo thực chiến (Predictive Power): Doanh nghiệp không cần các bản báo cáo thống kê chỉ để “giải thích” tại sao tháng trước doanh thu giảm. Họ cần dự báo. Việc ứng dụng thuật toán PLSpredict cho phép nhà phân tích dữ liệu kinh doanh đưa ra những dự báo chính xác về hành vi, rủi ro rời bỏ (churn rate), hoặc LTV (Customer Lifetime Value) của những tệp khách hàng hoàn toàn mới chưa từng xuất hiện trong tập dữ liệu lịch sử.
9. Các Câu Hỏi Thường Gặp (FAQ)
Tại sao CCA giữ lại được số lượng câu hỏi đo lường (items) nhiều hơn so với phương pháp CFA truyền thống?
Bởi vì thuật toán của Phân tích biến tổng hợp khẳng định (CCA) ước lượng các biến tổng hợp dựa trên nền tảng tổng phương sai (total variance), tạo ra các hệ số tải lớn hơn đáng kể so với CFA (vốn chỉ trích xuất dựa trên phương sai chung – common variance). Việc duy trì được lượng lớn các chỉ báo quan sát này giúp bảo toàn tính toàn vẹn của phạm vi nội dung, từ đó nâng cao độ tin cậy và giá trị cấu trúc (construct validity) của nghiên cứu.
Có thể sử dụng chỉ số Cronbach’s Alpha và AVE để kiểm tra độ tin cậy của thang đo nguyên nhân (Formative) không?
Tuyệt đối không. Các chỉ báo nguyên nhân (formative indicators) độc lập định hình nên khái niệm và không có nghĩa vụ phải tương quan với nhau. Việc sử dụng Cronbach’s Alpha, CR hay AVE để đo lường tính nhất quán nội bộ cho mô hình Formative là sai lệch nghiêm trọng về mặt nguyên lý thống kê. Thay vào đó, phải dùng phân tích dư thừa (redundancy analysis), hệ số VIF và trọng số ngoài (outer weights).
Nếu nghiên cứu của tôi chỉ nhằm mục đích kiểm định các lý thuyết truyền thống đã được thiết lập chặt chẽ, tôi nên dùng PLS-SEM với CCA hay CB-SEM với CFA?
Nếu mục tiêu tuyệt đối của nghiên cứu chỉ đơn thuần là kiểm định sự phù hợp của một lý thuyết truyền thống (theory testing) và yêu cầu khắt khe về các chỉ số độ phù hợp toàn cục (model fit indices), CB-SEM kết hợp CFA là lựa chọn tối ưu. Tuy nhiên, nếu mô hình của bạn có tính phức tạp cao, cỡ mẫu nhỏ, chứa các biến liên tục điều tiết, hoặc mục tiêu tối thượng của nghiên cứu là dự báo hành vi thực tiễn (prediction-oriented), thì PLS-SEM cùng quy trình CCA là phương pháp luận không thể thay thế.
10. Tài Liệu Tham Khảo (References)
Dưới đây là danh sách các tài liệu học thuật gốc (chuẩn APA) được trích dẫn trực tiếp từ bài viết định hình hệ thống phương pháp luận Phân tích biến tổng hợp khẳng định:
- Becker, J.-M., Klein, K., & Wetzels, M. (2012). Hierarchical latent variable models in PLS-SEM: Guidelines for using reflective-formative type models. Long Range Planning, 45(5-6), 359-394.
- Benitez, J., Henseler, J., Castillo, A., & Schuberth, F. (2019). How to perform and report an impactful analysis using partial least squares: Guidelines for confirmatory and explanatory IS research. Information & Management.
- Cheah, J.-H., Sarstedt, M., Ringle, C. M., Ramayah, T., & Ting, H. (2018). Convergent validity assessment of formatively measured constructs in PLS-SEM: On using single-item versus multi-item measures in redundancy analyses. International Journal of Contemporary Hospitality Management, 30(11), 3192-3210.
- Chin, W. W. (1998). The partial least squares approach to structural equation modeling. In G. A. Marcoulides (Ed.). Modern Methods for Business Research (pp. 295-358). Mahwah: Erlbaum.
- Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2017). A primer on partial least squares structural equation modeling (PLS-SEM) (2nd ed.). Thousand Oaks: Sage.
- Henseler, J., Dijkstra, T. K., Sarstedt, M., Ringle, C. M., Diamantopoulos, A., Straub, D. W., Calantone, R. J. (2014). Common beliefs and reality about PLS: Comments on Rönkkö & Evermann (2013). Organizational Research Methods, 17(2), 182-209.
- Henseler, J., Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115-135.
- Rigdon, E. E. (2014). Rethinking partial least squares path modeling: Breaking chains and forging ahead. Long Range Planning, 47, 161-167.
- Schuberth, F., Henseler, J., & Dijkstra, T. K. (2018). Confirmatory composite analysis. Frontiers in Psychology, 9. 2541.
- Shmueli, G., Sarstedt, M., Hair, J. F., Cheah, J.-H., Ting, H., Vaithilingam, S., & Ringle, C. M. (2019). Predictive model assessment in PLS-SEM: Guidelines for using PLSpredict. European Journal of Marketing.
(Vui lòng tham khảo tệp PDF gốc để tra cứu trọn bộ danh sách hàng chục tài liệu tham khảo chi tiết của các chuyên gia).
11. Lời kêu gọi hành động (CTA)
Quy trình Phân tích biến tổng hợp khẳng định (CCA) do Giáo sư Joe F. Hair Jr. và các cộng sự hệ thống hóa không chỉ là một bộ công cụ phương pháp luận khô khan, mà thực sự là một cuộc cách mạng định hình lại tính minh bạch và độ chính xác của nghiên cứu định lượng PLS-SEM. Để nắm vững cách thức vận hành các mô hình nguyên nhân phức tạp, cách biện luận loại bỏ hoàn toàn chỉ số GOF, cũng như cách khai thác sức mạnh dự báo tột đỉnh của thuật toán PLSpredict, bạn cần đào sâu vào bản thảo học thuật gốc.
Hãy tự trang bị cho mình nền tảng kiến thức vững chắc để công bố các công trình nghiên cứu khoa học đạt tiêu chuẩn quốc tế bằng cách tải và nghiền ngẫm toàn văn bài báo ngay hôm nay!
[Cho, G., Sarstedt, M., & Hwang, H. (2022). A comparative evaluation of factor- and component-based structural equation modelling approaches under (in) correct construct representations. British Journal of Mathematical and Statistical Psychology, 75, 220-251.]




