Ngày 6/10, Bộ Lao động và Quan hệ Công việc của Australia thông báo rằng một trong những tập đoàn kiểm toán lớn nhất thế giới đã quyết định hoàn trả khoản thanh toán cuối cùng trị giá 439.000 AUD (tương đương khoảng 290.000 USD) cho hợp đồng thực hiện báo cáo đánh giá độc lập. Lý do là do phát hiện một phần nội dung trong báo cáo này, được tạo ra bằng công nghệ trí tuệ nhân tạo (AI), chứa nhiều trích dẫn và chú thích không chính xác.
Deloitte là một trong những công ty kiểm toán lớn nhất thế giới.
Báo cáo được ký kết từ tháng 12 năm ngoái nhằm đánh giá hệ thống phúc lợi tự động của chính phủ Australia, vốn áp dụng các biện pháp xử phạt đối với người tìm việc. Tuy nhiên, sau khi xuất bản vào đầu năm nay, nhiều lỗi nghiêm trọng đã được phát hiện. Cụ thể, báo cáo có những tham khảo tới các nghiên cứu giả mạo từ các học giả thuộc Đại học Sydney và Đại học Lund của Thụy Điển, khiến uy tín của nội dung bị đặt dấu hỏi lớn. Phiên bản sửa đổi với các chỉnh sửa đã được đăng tải lại trên website của bộ ngày 3/10.
Mặc dù có sai sót trong phần trích dẫn và chú thích, chính phủ Australia khẳng định rằng các luận điểm chính và khuyến nghị quan trọng trong báo cáo vẫn giữ nguyên giá trị. Sau khi hoàn tất quá trình hoàn tiền, hợp đồng cụ thể sẽ được công khai minh bạch nhằm nâng cao trách nhiệm giải trình.
Sự việc này phản ánh rõ ràng nguy cơ tiềm tàng khi sử dụng AI trong lĩnh vực tư vấn chuyên nghiệp: hiện tượng “ảo giác” – thuật ngữ chỉ việc AI tự sinh ra thông tin không tồn tại hoặc không chính xác. Hiện nay, nhiều hãng kiểm toán và tư vấn danh tiếng như Deloitte, PwC, EY hay McKinsey đều đẩy mạnh ứng dụng AI để tối ưu hóa quy trình làm việc và nâng cao năng suất.
Tuy vậy, các tổ chức giám sát tại Anh và Mỹ đã lên tiếng cảnh báo về nguy cơ lệ thuộc quá mức vào công nghệ AI, có thể ảnh hưởng tiêu cực đến chất lượng và độ chính xác của các sản phẩm phân tích và báo cáo tài chính.
Trong tuyên bố mới nhất, Deloitte cho biết phần nội dung gây tranh cãi được soạn thảo dựa trên nền tảng AI mô hình ngôn ngữ lớn Azure OpenAI GPT-4o mà chính phủ Australia cấp phép sử dụng. Mặc dù không trực tiếp nhận lỗi từ AI, tập đoàn này đã tiến hành chỉnh sửa kỹ lưỡng các trích dẫn sai lệch cũng như các phần tổng hợp pháp lý nhầm lẫn. Công ty cam kết rằng những phát hiện chủ đạo và đề xuất cuối cùng trong báo cáo không bị ảnh hưởng bởi sai sót này.
Vụ việc trở thành bài học quý giá về rủi ro khi lạm dụng trí tuệ nhân tạo trong quy trình kiểm toán và tư vấn chuyên sâu, đặc biệt trong bối cảnh những công cụ AI dù được huấn luyện với dữ liệu thật vẫn có thể tạo ra thông tin giả mạo. Sự cố này nhấn mạnh sự cần thiết phải cân nhắc kỹ lưỡng giữa lợi ích tăng tốc công việc và đảm bảo tính chính xác tuyệt đối cho các báo cáo quan trọng.