Một nghiên cứu từ Phòng thí nghiệm MIT Lincoln cho thấy rằng mặc dù các thông số kỹ thuật hình thức chính xác về mặt toán học nhưng không phải lúc nào con người cũng có thể hiểu được chúng. Những người tham gia gặp khó khăn trong việc xác thực hành vi của AI bằng cách sử dụng các thông số kỹ thuật này, cho thấy có sự khác biệt giữa các tuyên bố lý thuyết và hiểu biết thực tế. Những phát hiện này nhấn mạnh sự cần thiết phải có những đánh giá thực tế hơn về khả năng giải thích của AI.
Một số nhà nghiên cứu tin rằng các quy chuẩn chính thức là cách để các hệ thống tự trị "tự giải thích" với con người. Nhưng một nghiên cứu mới cho thấy chúng ta không hiểu điều đó.
Khi các hệ thống tự động và trí tuệ nhân tạo trở nên phổ biến hơn trong cuộc sống hàng ngày, các phương pháp mới đang xuất hiện để giúp con người kiểm tra xem các hệ thống này có hoạt động như mong đợi hay không. Một cách tiếp cận được gọi là "đặc tả hình thức", sử dụng các công thức toán học có thể được dịch sang các biểu thức ngôn ngữ tự nhiên. Một số nhà nghiên cứu cho rằng phương pháp này có thể được sử dụng để làm sáng tỏ các quyết định mà AI sẽ đưa ra theo cách mà con người có thể hiểu được.
Các nhà nghiên cứu tại Phòng thí nghiệm MIT Lincoln muốn kiểm tra tuyên bố về khả năng giải thích này. Phát hiện của họ cho thấy điều ngược lại: Con người dường như không thể giải thích được những thông số kỹ thuật chính thức. Trong nghiên cứu của nhóm, những người tham gia được yêu cầu kiểm tra xem kế hoạch của đặc vụ AI có thành công trong trò chơi ảo hay không. Khi những người tham gia nhìn thấy bản mô tả chính thức về kế hoạch, chưa đến một nửa số lần họ đúng.
"Kết quả này là tin xấu đối với các nhà nghiên cứu đã tuyên bố rằng các phương pháp hình thức có thể mang lại khả năng diễn giải cho hệ thống." Nhóm công nghệ trí tuệ nhân tạo Lab: “Điều này có thể đúng theo một nghĩa hạn chế và trừu tượng nào đó, nhưng không đúng với bất kỳ điều gì gần với việc xác minh hệ thống thực tế”, nhà nghiên cứu Ô-sê Siu cho biết. Bài báo của nhóm đã được chấp nhận tại Hội nghị quốc tế về hệ thống và robot thông minh năm 2023 được tổ chức vào đầu tháng này.
Tầm quan trọng của khả năng giải thích
Khả năng giải thích rất quan trọng vì nó cho phép con người tin tưởng vào máy móc khi chúng được sử dụng trong thế giới thực. Nếu robot hoặc AI có thể giải thích hành vi của nó, con người có thể quyết định liệu nó có cần được điều chỉnh hay không hoặc liệu nó có thể được tin cậy để đưa ra quyết định công bằng hay không. Một hệ thống có thể giải thích được cũng cho phép người dùng kỹ thuật - không chỉ các nhà phát triển - hiểu và tin tưởng vào khả năng của nó. Tuy nhiên, khả năng giải thích từ lâu đã là bài toán khó trong lĩnh vực trí tuệ nhân tạo và tự chủ. Quá trình machine learning diễn ra trong một “hộp đen” nên các nhà phát triển mô hình thường không thể giải thích được tại sao hoặc làm thế nào hệ thống đưa ra một quyết định nhất định.
"Khi các nhà nghiên cứu nói rằng 'hệ thống máy học của chúng tôi chính xác', chúng tôi hỏi 'độ chính xác như thế nào' và 'dữ liệu nào đã được sử dụng' và nếu thông tin đó không được cung cấp, chúng tôi sẽ từ chối tuyên bố. Khi các nhà nghiên cứu nói rằng 'hệ thống máy học của chúng tôi có thể hiểu được', thì chúng tôi không làm điều đó và chúng tôi cần bắt đầu xem xét kỹ lưỡng hơn những tuyên bố này", Siu nói.
Thách thức của việc dịch các thông số kỹ thuật
Trong các thử nghiệm, các nhà nghiên cứu đã tìm cách xác định xem liệu các thông số kỹ thuật chính thức có thể làm cho hành vi của hệ thống trở nên dễ hiểu hơn hay không. Trọng tâm của họ là khả năng của mọi người trong việc sử dụng các thông số kỹ thuật này để xác minh hệ thống, tức là để hiểu liệu hệ thống có luôn đáp ứng các mục tiêu của người dùng hay không.
Việc sử dụng các thông số kỹ thuật chính thức cho mục đích này về cơ bản là sản phẩm phụ của mục đích ban đầu. Các đặc tả hình thức là một phần của một tập hợp rộng hơn các phương pháp hình thức sử dụng các biểu thức logic làm khung toán học để mô tả hành vi của một mô hình. Vì các mô hình dựa trên các luồng logic nên các kỹ sư có thể sử dụng "trình kiểm tra mô hình" để chứng minh một cách toán học các sự kiện về hệ thống, bao gồm cả khi hệ thống có khả năng hoàn thành một nhiệm vụ và khi nào nó không thể hoàn thành một nhiệm vụ. Giờ đây, các nhà nghiên cứu đang cố gắng sử dụng khuôn khổ tương tự như một công cụ dịch thuật ở người.
"Các nhà nghiên cứu đang nhầm lẫn với thực tế rằng các thông số kỹ thuật chính thức có ngữ nghĩa chính xác mà con người có thể giải thích. Điều đó không giống nhau", Siu nói. "Chúng tôi nhận ra rằng có rất ít việc kiểm tra xem mọi người có thực sự hiểu được kết quả đầu ra hay không."
Trong các thử nghiệm của nhóm, những người tham gia được yêu cầu xác minh một tập hợp hành vi khá đơn giản với một rô-bốt đang chơi trò chơi bắt cờ, về cơ bản là trả lời "Nếu rô-bốt tuân thủ chính xác các quy tắc này, liệu nó có luôn thắng không?"
Người tham gia bao gồm cả chuyên gia và người không chuyên về phương pháp chính thức. Họ thu được đặc tả chính thức theo ba cách - công thức logic "nguyên bản", dịch sang công thức gần với ngôn ngữ tự nhiên hơn và định dạng cây quyết định. Trong lĩnh vực trí tuệ nhân tạo, cây quyết định thường được coi là một cách dễ hiểu để con người thể hiện khả năng ra quyết định của trí tuệ nhân tạo hoặc robot.
Kết quả là về tổng thể, hiệu suất xác minh khá kém, với tỷ lệ chính xác là khoảng 45% cho dù sử dụng hình thức biểu thức nào.
Quá tự tin và hiểu lầm
Những người trước đây đã được đào tạo kỷ luật chính thức chỉ thực hiện tốt hơn một chút so với người mới vào nghề. Tuy nhiên, các chuyên gia tự tin hơn vào câu trả lời của mình, dù chúng có đúng hay không. Nhìn chung, mọi người có xu hướng quá tự tin vào tính chính xác của các thông số kỹ thuật được đưa ra trước mắt, điều đó có nghĩa là họ bỏ qua bộ quy tắc khiến trò chơi thất bại. Các nhà nghiên cứu cho biết xu hướng xác nhận này đặc biệt quan trọng đối với việc xác minh hệ thống vì mọi người có nhiều khả năng bỏ qua các dạng lỗi hơn.
"Chúng tôi không cho rằng kết quả này có nghĩa là chúng ta nên từ bỏ việc sử dụng các thông số kỹ thuật chính thức để giải thích hành vi của hệ thống cho mọi người. Nhưng chúng tôi cho rằng cần phải làm nhiều việc hơn nữa về mặt thiết kế cách trình bày các thông số kỹ thuật này cho mọi người và quy trình công việc mà mọi người sử dụng chúng", Siu nói thêm.
Trong khi xem xét lý do tại sao kết quả thí nghiệm lại kém như vậy, Siu nhận ra rằng ngay cả những người sử dụng các phương pháp chính thức cũng không được đào tạo để kiểm tra các thông số kỹ thuật theo yêu cầu của thí nghiệm. Hơn nữa, thật khó để suy nghĩ thấu đáo về tất cả những hậu quả có thể xảy ra của một bộ quy tắc. Mặc dù vậy, bộ quy tắc hiển thị cho người tham gia rất ngắn, không quá một đoạn văn bản, "ngắn hơn nhiều so với những gì bạn gặp trong bất kỳ hệ thống thực nào", Siu nói.
Nhóm không có ý định liên kết trực tiếp những phát hiện của họ với hiệu suất của con người trong quá trình xác thực robot trong thế giới thực. Đúng hơn, mục tiêu của họ là sử dụng những kết quả này làm điểm khởi đầu để xem xét cộng đồng logic hình thức có thể thiếu điều gì khi đưa ra các tuyên bố về khả năng diễn giải và cách các tuyên bố đó có thể biểu hiện trong thế giới thực.
Nghiên cứu và tác động trong tương lai
Nghiên cứu này là một phần của dự án lớn hơn Siu và các đồng đội đang nỗ lực cải thiện mối quan hệ giữa robot và người điều khiển, đặc biệt là người điều khiển quân sự. Quá trình lập trình robot thường loại trừ người vận hành. Với mục tiêu tương tự là cải thiện khả năng giải thích và độ tin cậy, dự án đang cố gắng yêu cầu người vận hành hướng dẫn các nhiệm vụ trực tiếp cho robot theo cách tương tự như cách con người được đào tạo. Quá trình này vừa có thể nâng cao sự tin cậy của người vận hành đối với robot, vừa cải thiện khả năng thích ứng của robot.
Cuối cùng, họ hy vọng kết quả của nghiên cứu này và nghiên cứu họ đang tiến hành sẽ dẫn đến những ứng dụng tốt hơn về quyền tự chủ khi nó ngày càng gắn chặt với cuộc sống và việc ra quyết định của con người.
Siu nói thêm: "Phát hiện của chúng tôi chứng minh sự cần thiết phải đánh giá của con người đối với các hệ thống và khái niệm nhất định trước khi đưa ra quá nhiều tuyên bố về quyền tự chủ và tính hữu ích của trí tuệ nhân tạo đối với con người."