Vào đầu giờ sáng thứ Tư, giờ Bắc Kinh, công ty khởi nghiệp công nghệ OpenAI của Mỹ đã đưa ra thông báo về việc triển khai đợt tuyển dụng toàn cầu các thành viên mạng lưới "đội đỏ", nhằm mục đích giới thiệu các lực lượng bên ngoài và phát hiện trước những sai sót cũng như rủi ro của hệ thống AI. Khái niệm về cái gọi là mạng "đội đỏ", hay RedTeaming, xuất phát từ mô phỏng quân sự. là tìm một nhóm người mô phỏng một “kẻ thù” tưởng tượng để kiểm tra mức độ chuẩn bị của phe mình (“đội xanh”).


(Nguồn: OpenAI)

Trong lĩnh vực AI Trong miền, nhiệm vụ của "đội đỏ" là mô phỏng hacker hoặc những kẻ nguy hiểm tiềm tàng khác, cố gắng tìm ra sơ hở trong các mô hình ngôn ngữ lớn, nhằm ngăn chặn AI hỗ trợ các mục đích bất hợp pháp như như gây nguy hiểm cho an sinh xã hội trong xã hội thực.

OpenAI cho biết trong vài năm qua, các chuyên gia trong các lĩnh vực khác nhau đã hỗ trợ thử nghiệm các mẫu chưa được phát hành. Bây giờ cần phải thành lập một “lực lượng chính quy” để tuyển dụng một số lượng lớn người từ các khu vực khác nhau, ngôn ngữ khác nhau, lĩnh vực chuyên môn khác nhau và kinh nghiệm sống khác nhau để cùng nhau làm cho các mô hình AI an toàn hơn. Không giống như trước đây, chỉ tuyển một nhóm người để thử nghiệm tập trung trước khi một phiên bản quan trọng được đưa lên mạng, OpenAI sẽ cho phép một số lượng thành viên không chắc chắn tiến hành thử nghiệm trong toàn bộ chu trình phát triển dựa trên nhu cầu.

Đồng thời, mạng lưới "đội đỏ" này cũng sẽ trở thành thư viện chuyên gia toàn cầu của OpenAI và OpenAI cũng sẽ cung cấp nền tảng giao tiếp giữa các thành viên "đội đỏ". OpenAI cũng liệt kê một số hướng chuyên gia mà họ mong muốn tuyển dụng trên trang web chính thức của mình, nhưng cũng nhấn mạnh rằng nó không giới hạn ở các lĩnh vực này.

Khoa học nhận thức: Khoa học nhận thức

Hóa học: Hóa học

Sinh học: Sinh học

Vật lý: Vật lý

Khoa học máy tính: Khoa học máy tính

Steganography: Steganography

PoliticalScience: Khoa học chính trị

7Tâm lý học: Tâm lý học

Thuyết phục: Thuyết phục

Kinh tế: Kinh tế

Nhân chủng học: Nhân chủng học

TAGPH 85Xã hội học: Xã hội học

HCI (Tương tác giữa người và máy tính): Tương tác giữa người và máy tính

Công bằng và thiên vị: Công bằng và thiên vị

Alignment: Liên kết mục tiêu

Giáo dục: Giáo dục

Chăm sóc sức khỏe: Chăm sóc sức khỏe

Luật: Pháp lý

An toàn cho trẻ em y: Trẻ em An toàn

An ninh mạng: An ninh mạng

Tài chính: Tài chính

Thông tin sai/sai: Thông tin sai/sai

Sử dụng chính trị: Ứng dụng Chính trị

Quyền riêng tư: Quyền riêng tư

Sinh trắc học: Sinh trắc học

Ngôn ngữ và Ngôn ngữ học: Ngôn ngữ và Ngôn ngữ học

Nhân tiện, OpenAI cũng tuyên bố rằng họ sẽ trả thù lao cho các thành viên tham gia dự án "đội đỏ" (nhưng không nêu rõ sẽ trả bao nhiêu), nhưng OpenAI cũng nhấn mạnh rằng việc tham gia dự án "đội đỏ" nhìn chung sẽ yêu cầu ký thỏa thuận bảo mật hoặc giữ im lặng trong một khoảng thời gian không xác định.

OpenAI tuyên bố rằng kênh ứng dụng sẽ vẫn mở cho đến ngày 1 tháng 12 năm nay. Công ty sẽ xem xét các đơn đăng ký trên cơ sở luân phiên và sau đó sẽ đánh giá xem có cần tuyển dụng mở thêm hay không.

Các thành viên của “đội đỏ” OpenAI đã lên sân khấu

Như OpenAI đã nêu, “đội đỏ” đã tồn tại từ lâu và nhiều thành viên đã nhận lời phỏng vấn công khai với giới truyền thông.

Trong một bài báo tiết lộ trên tờ Financial Times vào tháng 4 năm nay, Andrew White, giáo sư kỹ thuật hóa học tại Đại học Rochester, Hoa Kỳ, đã giới thiệu rằng ông đã tham gia thử nghiệm GPT-4 của "đội đỏ" và mục tiêu tấn công của ông là sử dụng ChatGPT để tạo ra một chất độc thần kinh mới. White cho biết anh đã sử dụng chức năng "plug-in" để cung cấp các tài liệu hóa học và danh mục nhà sản xuất hóa chất cho mô hình lớn, và mô hình lớn thậm chí còn tìm cho anh một nơi để anh có thể tạo ra chất độc giả định của mình.

White cho rằng các mô hình lớn cuối cùng có thể giúp nhiều người thực hiện các thí nghiệm hóa học nhanh hơn và chính xác hơn, nhưng cũng có mối nguy hiểm nghiêm trọng là một số người sẽ sử dụng AI để thực hiện một số thí nghiệm nguy hiểm.

Sau khi nhận được phản hồi từ White, OpenAI đã thực hiện các thay đổi đối với hệ thống để đảm bảo hệ thống sẽ không phản hồi các câu hỏi tương tự. Theo giới truyền thông, có khoảng 10 thành viên "đội đỏ" với xuất thân khác nhau - luật sư, giáo viên, nhân viên kiểm soát rủi ro, nhà nghiên cứu bảo mật, v.v. Hầu hết họ đều sống ở Hoa Kỳ và Châu Âu. Họ tiết lộ rằng trong những tháng trước khi GPT-4 được phát hành, họ đã dành khoảng 10-40 giờ để thử nghiệm mô hình và được trả khoảng 100 USD mỗi giờ.