Một báo cáo mới từ HAI (Trí tuệ nhân tạo lấy con người làm trung tâm) của Đại học Stanford cho thấy rằng không có nhà phát triển nổi tiếng nào về các mô hình cơ bản của trí tuệ nhân tạo (bao gồm các công ty như OpenAI và Meta) công bố đủ thông tin về tác động tiềm tàng của nó đối với xã hội.
Hôm nay, Stanford HAI đã công bố chỉ số minh bạch về mô hình cơ bản, chỉ số này theo dõi xem người tạo ra 10 mô hình trí tuệ nhân tạo phổ biến nhất có tiết lộ thông tin về công việc của họ cũng như cách mọi người sử dụng hệ thống của họ hay không. Trong số các mô hình được thử nghiệm, Llama2 của Meta đạt điểm cao nhất, tiếp theo là BloomZ và sau đó là GPT-4 của OpenAI. Nhưng hóa ra không ai trong số họ đạt được điểm đặc biệt cao.
Các mẫu khác được đánh giá bao gồm StableDiffusion của Stability, Claude của Anthropic, PaLM2 của Google, Command của Cohere, Jurassic2 của AI21Labs, Inflection của Inflection-1 và Titan của Amazon.
Các nhà nghiên cứu thừa nhận rằng tính minh bạch có thể là một khái niệm khá rộng. Định nghĩa của họ dựa trên 100 chỉ số cung cấp thông tin về cách xây dựng mô hình, cách thức hoạt động của mô hình và cách mọi người sử dụng mô hình. Họ phân tích thông tin công khai về mô hình và cho điểm từng điểm, lưu ý xem liệu các công ty có tiết lộ đối tác và nhà phát triển bên thứ ba hay không, liệu họ có cho khách hàng biết liệu mô hình của họ có sử dụng thông tin cá nhân hay không và một loạt câu hỏi khác.
Khi công ty công bố nghiên cứu về tạo mô hình, điểm Meta là 53%, với điểm cao nhất ở phần cơ bản về mô hình. Mô hình nguồn mở BloomZ theo sát phía sau với mức hỗ trợ 50% và GPT-4 với mức hỗ trợ 47% - gắn liền với mức độ phổ biến ổn định mặc dù phương pháp thiết kế tương đối cố định của OpenAI.
OpenAI từ chối công bố hầu hết các kết quả nghiên cứu của mình và không tiết lộ nguồn dữ liệu, nhưng GPT-4 được xếp hạng cao vì có rất nhiều thông tin về các đối tác của nó. OpenAI hợp tác với một số công ty khác nhau để tích hợp GPT-4 vào sản phẩm của họ, mang lại vô số thông tin công khai có sẵn để xem.
Tuy nhiên, các nhà nghiên cứu của Stanford phát hiện ra rằng không ai trong số những người tạo ra các mô hình này tiết lộ bất kỳ thông tin nào về tác động xã hội, bao gồm cả nơi gửi khiếu nại về quyền riêng tư, bản quyền hoặc thành kiến.
Rishi Bommasani, giám đốc xã hội tại Trung tâm Mô hình Cơ bản của Đại học Stanford và là một trong những nhà nghiên cứu của chỉ số, cho biết mục tiêu của chỉ số này là cung cấp tiêu chuẩn cho các chính phủ và công ty. Một số quy định được đề xuất, chẳng hạn như Dự luật Trí tuệ nhân tạo của EU, có thể sớm buộc các nhà phát triển mô hình cơ bản quy mô lớn phải cung cấp báo cáo minh bạch.
“Điều chúng tôi đang cố gắng đạt được với chỉ số là làm cho mô hình trở nên minh bạch hơn và chia nhỏ những khái niệm rất mơ hồ thành những thứ cụ thể hơn có thể đo lường được,” Bomasani nói. Nhóm tập trung vào một mô hình của mỗi công ty để so sánh dễ dàng hơn.
Trí tuệ nhân tạo sáng tạo có một cộng đồng nguồn mở rộng lớn và tích cực, nhưng một số công ty lớn nhất trong lĩnh vực này không chia sẻ công khai nghiên cứu hoặc mã của họ. Mặc dù OpenAI có từ "mở" trong tên nhưng nó không còn phân phối nghiên cứu của mình nữa, với lý do lo ngại về cạnh tranh và bảo mật.
Bommasani cho biết tổ chức sẵn sàng mở rộng phạm vi của chỉ số, nhưng trong thời gian chờ đợi sẽ tiếp tục bám sát 10 mô hình cơ sở mà tổ chức đã đánh giá.