OpenAI hôm nay đã công bố thành lập một nhóm mới có nhiệm vụ đánh giá, đánh giá và phát hiện các mô hình trí tuệ nhân tạo để ngăn chặn những gì nó mô tả là "rủi ro thảm khốc". Nhóm có tên là Chuẩn bị sẵn sàng sẽ được lãnh đạo bởi Aleksander Madry, giám đốc Trung tâm Học máy có thể triển khai của MIT. (Theo LinkedIn, Madrid đã gia nhập OpenAI vào tháng 5 năm nay với tư cách là "người đứng đầu bộ phận sẵn sàng").
Trách nhiệm chính của sự chuẩn bị là theo dõi, dự đoán và đề phòng những mối nguy hiểm trong tương lai của hệ thống trí tuệ nhân tạo, bao gồm khả năng thuyết phục và đánh lừa con người (chẳng hạn như các cuộc tấn công lừa đảo) cũng như khả năng tạo mã độc hại.
Một số loại rủi ro mà Công tác chuẩn bị xem xét có vẻ... xa vời hơn những loại khác. Ví dụ: trong một bài đăng trên blog, OpenAI đã liệt kê các mối đe dọa "hóa học, sinh học, phóng xạ và hạt nhân" là lĩnh vực trọng tâm hàng đầu cho các mô hình AI của mình.
Giám đốc điều hành OpenAI Sam Altman là một chuyên gia AI nổi tiếng về ngày tận thế, người thường lo lắng rằng trí tuệ nhân tạo "có thể dẫn đến sự tuyệt chủng của loài người" - dù là do hiệu ứng hình ảnh hay niềm tin cá nhân. Nhưng thành thật mà nói, OpenAI thực sự có thể dành nguồn lực để nghiên cứu một kịch bản không tưởng về khoa học viễn tưởng, đây là một bước tiến xa hơn những gì tác giả bài viết này mong đợi.
Công ty cho biết họ cũng sẵn sàng xem xét các lĩnh vực rủi ro AI "ít rõ ràng hơn" và thực tế hơn. Trùng hợp với thời điểm ra mắt nhóm "Chuẩn bị", OpenAI đang thu hút các ý tưởng nghiên cứu mạo hiểm từ cộng đồng và mười người gửi hàng đầu sẽ nhận được khoản tiền thưởng 25.000 USD và một công việc trong lĩnh vực "Chuẩn bị".
“Hãy tưởng tượng chúng tôi cấp cho bạn quyền truy cập không hạn chế vào các mô hình Whisper (phiên âm), Giọng nói (chuyển văn bản thành giọng nói), GPT-4V và DALLE-3 của OpenAI và bạn là một tác nhân độc hại,” một câu hỏi trong lời kêu gọi viết bài. "Hãy xem xét trường hợp lạm dụng mô hình độc đáo nhất, nhưng vẫn có thể xảy ra, có khả năng gây ra thảm họa."
OpenAI cho biết nhóm chuẩn bị cũng sẽ chịu trách nhiệm phát triển "chính sách phát triển có tính đến rủi ro", trong đó nêu chi tiết cách tiếp cận của OpenAI trong việc xây dựng các công cụ giám sát và đánh giá mô hình trí tuệ nhân tạo, các hành động giảm thiểu rủi ro của công ty và cơ cấu quản trị giám sát toàn bộ quá trình phát triển mô hình. Công ty cho biết điều này nhằm bổ sung cho công việc khác của OpenAI về an toàn AI, tập trung vào giai đoạn trước và sau triển khai của các mô hình.
"Chúng tôi tin rằng...các mô hình trí tuệ nhân tạo sẽ vượt qua khả năng của các mô hình hiện đại nhất hiện có, với tiềm năng mang lại lợi ích cho toàn nhân loại", OpenAI viết trong bài đăng trên blog nói trên. “Nhưng chúng cũng gây ra những rủi ro ngày càng nghiêm trọng… Chúng ta cần đảm bảo hiểu biết và cơ sở hạ tầng cần thiết để bảo mật các hệ thống AI có năng lực cao.”
OpenAI đã công bố kế hoạch "Preparedness" (Chuẩn bị) tại hội nghị thượng đỉnh lớn về an toàn trí tuệ nhân tạo do chính phủ Anh tổ chức, sau khi OpenAI thông báo sẽ thành lập một nhóm để nghiên cứu, hướng dẫn và kiểm soát các dạng trí tuệ nhân tạo "siêu trí tuệ" mới nổi. Cả CEO Altman và Ilya Sutskever, nhà khoa học trưởng và đồng sáng lập của OpenAI đều tin rằng trí tuệ nhân tạo với trí thông minh siêu phàm có thể xuất hiện trong vòng một thập kỷ nữa, và trí tuệ nhân tạo này không nhất thiết phải có thiện chí nên cần nghiên cứu cách hạn chế và hạn chế.