Theo một nghiên cứu mới của Đại học East Anglia (UEA), nền tảng trí tuệ nhân tạo ChatGPT cho thấy xu hướng cánh tả có hệ thống rõ ràng. Một nhóm các nhà nghiên cứu người Anh và Brazil đã phát triển một phương pháp mới nghiêm ngặt để kiểm tra sự thiên vị chính trị. Kết quả nghiên cứu được công bố trên tạp chí Public Choice số mới đây cho thấy các câu trả lời của ChatGPT có lợi cho Đảng Dân chủ Mỹ, Đảng Lao động Anh và Chủ tịch Đảng Công nhân Brazil Lula da Silva.


Những lo ngại trước đây và tầm quan trọng của tính trung lập

Mối lo ngại về thành kiến chính trị cố hữu trong ChatGPT đã được nêu ra trước đây, nhưng đây là nghiên cứu quy mô lớn đầu tiên sử dụng phương pháp phân tích dựa trên bằng chứng nhất quán.

Tác giả chính, Tiến sĩ Fabio Motoki, từ Trường Kinh doanh Norwich của Đại học East Anglia, cho biết: "Khi công chúng ngày càng sử dụng các hệ thống do AI điều khiển để khám phá sự thật và tạo nội dung mới, điều quan trọng là kết quả đầu ra của các nền tảng phổ biến như ChatGPT phải càng khách quan càng tốt. Sự hiện diện của thành kiến chính trị có thể ảnh hưởng đến quan điểm của người dùng và có tác động đến các quy trình chính trị và bầu cử. có thể tái tạo hoặc thậm chí khuếch đại những thách thức hiện có do internet và mạng xã hội đặt ra "

Phương pháp được áp dụng

Các nhà nghiên cứu đã phát triển một phương pháp cải tiến mới để kiểm tra tính trung lập về chính trị của ChatGPT. Các nhà nghiên cứu đã yêu cầu người dùng trên nền tảng đóng vai những cá nhân thuộc mọi quan điểm chính trị trong khi trả lời một loạt hơn 60 câu hỏi về hệ tư tưởng. Sau đó, những phản hồi này được so sánh với các phản hồi mặc định của nền tảng cho cùng một bộ câu hỏi -- cho phép các nhà nghiên cứu đo lường mức độ liên quan chặt chẽ giữa các phản hồi của ChatGPT với các quan điểm chính trị cụ thể.

Để khắc phục những khó khăn do tính ngẫu nhiên vốn có trong "mô hình ngôn ngữ lớn" hỗ trợ các nền tảng trí tuệ nhân tạo như ChatGPT, mỗi câu hỏi được hỏi 100 lần và thu thập nhiều câu trả lời khác nhau. Sau đó, nhiều phản hồi này phải trải qua 1.000 lần lặp lại 'bootstrapping' (một phương pháp lấy mẫu lại dữ liệu gốc) để cải thiện hơn nữa độ tin cậy của các suy luận rút ra từ văn bản được tạo.

Đồng tác giả Victor Rodrigues cho biết: "Chúng tôi tạo ra chương trình này vì chỉ một vòng thử nghiệm là không đủ. Vì tính ngẫu nhiên của mô hình. Để đảm bảo rằng phương pháp này nghiêm ngặt nhất có thể, chúng tôi đã tiến hành một loạt thử nghiệm sâu hơn. Trong "thử nghiệm phản ứng liều lượng", ChatGPT đã được yêu cầu đóng giả các quan điểm chính trị cấp tiến. Trong "thử nghiệm giả dược", nó được hỏi những câu hỏi trung lập về mặt chính trị.

Mục tiêu và tầm quan trọng

"Chúng tôi hy vọng cách tiếp cận của chúng tôi sẽ góp phần vào việc xem xét và quản lý các công nghệ đang phát triển nhanh chóng này", đồng tác giả, Tiến sĩ John C. Pinho-Netto. "Bằng cách phát hiện và khắc phục những thành kiến ​​trong LLM, chúng tôi mong muốn tăng cường tính minh bạch, trách nhiệm giải trình và niềm tin của công chúng đối với công nghệ này", ông nói thêm "

Tiến sĩ Motoki cho biết công cụ phân tích mới độc đáo do dự án tạo ra sẽ miễn phí cho công chúng sử dụng và tương đối đơn giản, từ đó "dân chủ hóa hoạt động giám sát". Ngoài việc kiểm tra thành kiến ​​chính trị, công cụ này có thể được sử dụng để đo lường các loại thành kiến ​​khác trong phản hồi của ChatGPT. TAGPH 80

Các nguồn tiềm ẩn của thành kiến

Mặc dù dự án nghiên cứu không tìm cách xác định nguyên nhân của thành kiến ​​chính trị, nhưng các phát hiện đã chỉ ra hai nguồn tiềm năng.

Đầu tiên là tập dữ liệu huấn luyện - có thể có sai lệch trong đó hoặc sai lệch do con người thêm vào mà quy trình "làm sạch" của nhà phát triển không thể loại bỏ được. Nguồn tiềm năng thứ hai là chính thuật toán, thuật toán này có thể khuếch đại các thành kiến ​​đã có trong dữ liệu huấn luyện.