Học máy (hay còn được gọi là Machine Leaning) đang là khuynh hướng của sự phát triển trong khoa học và công nghệ thời gian gần đây. Nhưng thật không may, vai trò quan trọng của AI lại đang bị con người bỏ qua trong lĩnh vực này. Nếu con người sử dụng bộ phân loại học máy một cách rõ ràng làm công cụ hoặc triển khai mô hình trong các sản phẩm khác thì vẫn còn một mối quan tâm quan trọng: nếu người dùng không tin tưởng vào một mô hình hoặc một dự đoán, họ có thể không sử dụng nó. Với sự phát triển và phổ biến của Mạng thần kinh sâu (Deep learning Neutral Network), hiệu suất của các mô hình AI đã được cải thiện đáng kể. Trong thời đại dữ liệu lớn, tác động ngày càng tăng của các mô hình học máy hộp đen phát triển cao đã thu hút được nhiều sự công nhận từ một số cộng đồng, khả năng diễn giải của trí tuệ nhân tạo cũng đã được nghiên cứu trong nhiều bối cảnh khác nhau. Một số nghiên cứu về các tác nhân được cá nhân hóa như hệ thống khuyến nghị và ra quyết định quan trọng đã làm tăng thêm tầm quan trọng của việc giải thích máy học và tính minh bạch của AI đối với người dùng cuối. Ví dụ: quyền giải thích hợp pháp đã được đặt ra bởi Ủy ban Quy định chung về bảo vệ dữ liệu của Liên minh Châu Eu (GDPR). Mặc dù trạng thái hiện tại của các quy định tập trung hoàn toàn vào bảo vệ dữ liệu cá nhân của người dùng nhưng tính minh bạch hơn về thuật toán và các yêu cầu làm rõ từ các hệ thống AI dự kiến sẽ được đề cập. Tuy nhiên, khả năng diễn giải của DNN là một trở ngại đáng kể đối với không chỉ người dùng cuối mà còn cả các nhà khoa học và kỹ sư AI. Nhu cầu về AI có thể dự đoán và có trách nhiệm cũng tăng lên khi các nhiệm vụ có độ nhạy và tác động xã hội cao hơn thường được giao phó cho các dịch vụ AI. Hệ thống Trí tuệ nhân tạo có thể giải thích (XAI) được sinh ra với mục đích tự giải thích lý do đằng sau các quyết định và dự đoán của hệ thống cho người dùng cuối. Các giải thích AI, hoặc giải thích theo yêu cầu hoặc dưới dạng mô tả mô hình, có thể giúp người dùng theo nhiều cách, chẳng hạn như đạt được sự an toàn và công bằng khi dựa vào các quyết định của AI. Tuy nhiên, các phương pháp XAI tạo ra kết quả với độ chính xác mơ hồ. Do đó, giải thích là một cách để xác minh quyết định đầu ra được thực hiện bởi mô hình hoặc thuật toán AI. Đối với mô hình phát hiện ung thư sử dụng hình ảnh hiển vi, lời giải thích có thể có nghĩa là bản đồ pixel đầu vào đóng góp vào kết quả đầu ra của mô hình. Đối với mô hình nhận dạng giọng nói, lời giải thích có thể là thông tin phổ công suất đóng góp nhiều hơn vào quyết định đầu ra hiện tại trong một thời gian cụ thể. Tuy nhiên, các định nghĩa của XAI thường chung chung và có thể gây hiểu lầm và nên tích hợp một số hình thức lập luận. Hơn nữa, không có số liệu chung nào có sẵn để đo độ chính xác của phương pháp XAI cho đến khi chúng tôi hoạt động. Do đó, bài báo này đề xuất một chỉ số đánh giá XAI mới và giới thiệu một số chỉ số đánh giá gần đây của công việc.
Phần còn lại của bài báo này được sắp xếp để cung cấp theo thứ tự sau: cơ sở về phương pháp XAI, công việc liên quan, các phương pháp và thí nghiệm được đề xuất của chúng tôi. Những đóng góp chính của chúng tôi được tóm tắt như sau:
– Chúng tôi đề xuất một số liệu đánh giá mới cho các phương pháp XAI phổ biến, cụ thể là Xác định phân đoạn tác động cao nhất (DHIS). Nó được áp dụng với ý tưởng về thuật toán phân cụm K-Means, thuật toán này phân chia các cụm pixel riêng biệt dựa trên sự gần gũi về màu sắc của chúng trong mặt phẳng hình ảnh.
– Ngoài ra, chúng tôi giới thiệu các chỉ số Intersection Over Union (IOU), là một phương pháp đánh giá tạo ra một giá trị số dựa trên sự so sánh giữa các hộp giới hạn được đánh dấu bằng phương pháp XAI.
– Chúng tôi đưa ra đánh giá so sánh giữa ba phương pháp XAI phổ biến nhất bao gồm LIME, SHAP và CAM, trong đó chúng tôi đo lường tác động của các vùng đối với dự đoán của mô hình. Chúng tôi cũng hiển thị các thông số thực hành tốt nhất của từng phương pháp XAI trong một vấn đề cụ thể được giải thích rõ ràng, giúp các học viên biết khi nào và tại sao họ nên áp dụng phương pháp XAI trên một mô hình.