Trong khi Microsoft đang quảng bá mạnh mẽ các sản phẩm trí tuệ nhân tạo của mình tới người tiêu dùng và doanh nghiệp, đồng thời tích hợp sâu Copilot trong Windows 11, hãng này định vị dịch vụ AI này là "công dụng giải trí" trong các tài liệu chính thức. Điều khoản sử dụng của Microsoft Copilot, được cập nhật vào tháng 10 năm ngoái, nêu rõ rằng mô hình ngôn ngữ lớn (LLM) này "chỉ dành cho mục đích giải trí" và người dùng không nên sử dụng nó để đưa ra lời khuyên quan trọng và tự chịu rủi ro khi làm như vậy.
Tuyên bố này hoàn toàn trái ngược với tuyên bố gần đây của Microsoft về người dùng Copilot+ PC và doanh nghiệp, đặt ra câu hỏi về độ tin cậy của nó.

Về điều khoản sử dụng, Microsoft viết: "Copilot chỉ dành cho mục đích giải trí. Nó có thể mắc lỗi và có thể không hoạt động như mong đợi. Đừng dựa vào Copilot để đưa ra lời khuyên quan trọng. Hãy tự chịu rủi ro khi sử dụng Copilot." Báo cáo chỉ ra rằng những tuyên bố từ chối trách nhiệm tương tự không phải chỉ có ở Microsoft và các nhà cung cấp dịch vụ mô hình AI lớn khác cũng đã áp dụng các tuyên bố tương tự. Ví dụ: xAI nhắc nhở người dùng trong điều khoản dịch vụ của mình rằng trí tuệ nhân tạo "phát triển nhanh chóng và có tính xác suất", vì vậy nội dung được tạo ra có thể "ảo giác", chứa nội dung xúc phạm, không phản ánh chính xác người hoặc sự kiện có thật hoặc thậm chí hoàn toàn không phù hợp với mục đích sử dụng của người dùng.
Mặc dù AI sáng tạo đã được chứng minh là cải thiện hiệu quả trong việc viết, lập trình và các tình huống khác, nhưng nó vẫn chỉ là một công cụ thiếu chủ thể chịu trách nhiệm và không thể chịu bất kỳ hậu quả pháp lý hoặc thực tế nào cho những sai lầm của chính mình. Do đó, người dùng phải thận trọng khi dựa vào kết quả của mình, nghi ngờ kết quả đầu ra và kiểm tra chéo. Tuy nhiên, báo cáo cũng nhắc nhở rằng ngay cả khi người dùng nhận thức được những hạn chế kỹ thuật này, con người vẫn dễ bị ảnh hưởng bởi "thiên vị tự động hóa", tức là họ có xu hướng tin vào câu trả lời do máy đưa ra một cách tự nhiên và bỏ qua những dữ liệu hoặc manh mối mâu thuẫn.
Trong bối cảnh hiện tại, khi nội dung do AI tạo ra trở nên tự nhiên hơn và trông “thật” hơn, nguy cơ sai lệch tự động hóa này càng tăng cao. Bài báo chỉ ra rằng khi bề ngoài AI có thể đưa ra các câu trả lời có căn cứ và nhất quán về mặt logic, người dùng sẽ dễ dàng tin vào điều đó hơn "chỉ trong nháy mắt", do đó họ vô tình nới lỏng cảnh giác. Trong trường hợp này, một mặt, các nhà sản xuất khuyến khích người dùng áp dụng rộng rãi AI trong công việc và cuộc sống thông qua quảng cáo và tích hợp sản phẩm, nhưng mặt khác, họ lại sử dụng những tuyên bố từ chối trách nhiệm được tiêu chuẩn hóa về mặt sử dụng để cắt đứt trách nhiệm. Sự căng thẳng này cũng đã trở thành hiện tượng gây tranh cãi trong sự phát triển của ngành AI hiện nay.