Keberkesanan Interaksi Manusia-AI dalam Membuat Keputusan di Tempat Kerja: Satu Kajian Empirikal

Authors

  • Ainun Rafieza binti Ahmad Tajuddin Kolej Komuniti Arau, Perlis
  • Nur Elyani binti Mohammad Kolej Komuniti Arau, Perlis
  • Nur Nadia binti Musa Kolej Komuniti Arau, Perlis

Keywords:

Kecerdasan Buatan, Interaksi Manusia-AI, Kepercayaan Pengguna, Keberkesanan Keputusan, Kolaborasi Digital Di Tempat Kerja

Abstract

Kecerdasan Buatan (AI) kini menjadi komponen penting dalam menyokong proses membuat keputusan harian di tempat kerja, khususnya dalam persekitaran digital yang memerlukan ketepatan, kecekapan dan respons pantas terhadap maklumat. Walaupun AI mampu mengoptimumkan tugasan rutin dan membantu dalam penganalisisan data berskala besar, tahap kebergantungan, kefahaman, dan kepercayaan pengguna terhadap sistem AI masih belum difahami secara menyeluruh. Dalam banyak kes, pengguna menerima atau menolak cadangan AI tanpa benar-benar memahami rasional di sebalik keputusan tersebut. Fenomena ini menimbulkan persoalan tentang sejauh mana AI boleh diterima sebagai rakan kolaboratif dalam membuat keputusan yang lebih bermakna dan bertanggungjawab. Kertas konsep ini mencadangkan satu kajian kuantitatif yang bertujuan untuk: (i) Mengenal pasti bentuk interaksi dan corak kebergantungan pengguna terhadap sistem AI di tempat kerja, (ii) Mengukur tahap kepercayaan, kefahaman dan keberkesanan keputusan pengguna terhadap saranan AI, dan (iii) Menganalisis hubungan antara kepercayaan, kefahaman serta keberkesanan keputusan terhadap tahap penerimaan teknologi AI. Kajian ini akan menggunakan soal selidik berstruktur dan dapatannya dianalisis serta melibatkan sekurang-kurangnya 100 responden profesional dalam kalangan pensyarah Kolej Komuniti Wilayah Utara, Malaysia. Data akan dianalisis menggunakan statistik deskriptif, korelasi Pearson dan regresi linear. Hasil yang dijangka daripada kajian ini akan dapat memberi kepada pembangunan kerangka konseptual kolaborasi manusia-AI yang lebih telus, etikal dan praktikal, serta menjadi panduan kepada organisasi dan pembuat dasar dalam merangka strategi pelaksanaan teknologi AI yang seimbang dan berfokuskan manusia.

References

Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2018). 'It's reducing a human being to a percentage': Perceptions of justice in algorithmic decisions. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, 1–14. https://doi.org/10.1145/3173574.3173951

Brynjolfsson, E., & McElheran, K. (2016). Data in action: Data-driven decision making in US manufacturing (CESifo Working Paper No. 5759).

Creswell, J. W., & Creswell, J. D. (2018). Research design: Qualitative, quantitative, and mixed methods approaches (5th ed.). SAGE Publications.

Dellermann, D., Reck, F., & Ebel, P. (2021). Breaking the decision-making black box: A taxonomy for design knowledge on explainable artificial intelligence. Journal of Decision Systems, 30(1), 1–20. https://doi.org/10.1080/12460125.2020.1846486

Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114–126. https://doi.org/10.1037/xge0000033

Eiband, M., Schneider, H., Bilandzic, M., Fazekas-Con, C., & Hussmann, H. (2021). Explaining with interactive examples: A user-centric strategy for AI explanations. ACM Transactions on Interactive Intelligent Systems (TiiS), 11(1), 1–39. https://doi.org/10.1145/3453170

Field, A. (2018). Discovering statistics using IBM SPSS statistics (5th ed.). SAGE Publications.

Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2), 627–660. https://doi.org/10.5465/annals.2018.0057

Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2020). Multivariate data analysis (8th ed.). Cengage Learning.

Joshi, A., Kale, S., Chandel, S., & Pal, D. K. (2015). Likert scale: Explored and explained. British Journal of Applied Science & Technology, 7(4), 396–403. https://doi.org/10.9734/BJAST/2015/14975

Jussupow, E., Heinzl, A., & Spohrer, K. (2022). The duality of algorithmic decision-making in knowledge work: Recurrent patterns of human–AI interaction. Journal of the Association for Information Systems, 23(2), 295–325.

Krejcie, R. V., & Morgan, D. W. (1970). Determining sample size for research activities. Educational and Psychological Measurement, 30(3), 607–610.

Langer, M., König, C. J., & Fitili, A. (2021). Information systems for the age of automation bias: A new challenge to system design. Journal of Business Research, 124, 518–530.

Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135–1144. https://doi.org/10.1145/2939672.2939778

Shrestha, Y. R., Ben-Menahem, S. M., & von Krogh, G. (2019). Organizational decision-making structures in the age of artificial intelligence. California Management Review, 61(4), 66–83.

Siau, K., & Wang, W. (2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Journal, 31(2), 47–53.

Zhang, Y., Liao, Q. V., & Bellamy, R. K. E. (2020). Effect of confidence and explanation on accuracy and trust calibration in AI-assisted decision making. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–13. https://doi.org/10.1145/3313831.3376207

Published

2025-07-06