Trong khi cuộc chiến khốc liệt giữa Israel và nhóm vũ trang Hamas của Palestine đang diễn ra ác liệt, các chatbot trí tuệ nhân tạo (AI) của Google và Microsoft, hai gã khổng lồ công nghệ lớn của Mỹ, đã đưa ra tuyên bố sai sự thật rằng hai bên đã thực sự ngừng bắn. Các thử nghiệm của phương tiện truyền thông Hoa Kỳ cho thấy rằng khi được hỏi về xung đột Palestine-Israel, chatbot Bard của Google đã trả lời rằng “bất chấp một số căng thẳng và thỉnh thoảng bùng phát bạo lực”, “cả hai bên đều cam kết” duy trì hòa bình.

Trò chuyện AI BingChat của Microsoft cũng nói với giọng điệu tương tự: "Lệnh ngừng bắn đánh dấu sự kết thúc của cuộc đổ máu hiện tại." Ngoài việc tuyên bố hai bên đã ngừng bắn, Bader còn dự đoán chính xác số người chết vào một ngày trong tương lai. "Tính đến ngày 11 tháng 10 năm 2023, số người chết đã vượt quá 1.300." Bader cho biết vào ngày 9 tháng 10.

Xung đột giữa Israel và Hamas là cuộc chiến lớn đầu tiên nổ ra trong thời kỳ hậu ChatGPT và là thử nghiệm độc đáo cho thế hệ chatbot AI mới. Sương mù chiến tranh có thể gây ra sai lầm cho giới truyền thông và quân nhân, và chatbot AI dường như cũng không ngoại lệ. Tuy nhiên, nếu những công cụ AI này rõ ràng là sai trong việc đưa tin về các sự kiện hiện tại, mọi người có thể khó tìm được nguồn tin tức đáng tin cậy hơn vì mạng xã hội vốn đã tràn ngập thông tin sai lệch. Truyền thông Hoa Kỳ đã thử nghiệm hai robot AI về một số vấn đề chiến tranh cơ bản. Mặc dù nhìn chung họ duy trì sự cân bằng trong các chủ đề nhạy cảm và thường có thể đưa ra những bản tóm tắt tin tức phù hợp, nhưng đôi khi họ lại mắc những sai lầm rõ ràng, làm giảm uy tín chung của họ và có khả năng làm tăng thêm sự nhầm lẫn của công chúng về một cuộc chiến phức tạp và đang diễn biến nhanh chóng.

Người phát ngôn của Google đã trả lời rằng công ty “rất coi trọng chất lượng thông tin trong các sản phẩm của mình” và sử dụng các công cụ như tính năng “kiểm tra kỹ” để giúp người dùng xác minh kết quả do AI tạo ra. Google cũng cho biết tất cả các hệ thống AI được điều khiển bởi các mô hình ngôn ngữ lớn "sẽ mắc sai lầm, đặc biệt là khi liên quan đến tin tức nóng hổi". Những mô hình này yêu cầu lượng lớn dữ liệu trực tuyến để phản hồi. Google cho biết: “Chúng tôi sẽ tiếp tục nhanh chóng thực hiện các cải tiến để ngăn chặn tốt hơn các phản hồi chất lượng thấp hoặc lỗi thời đối với các truy vấn như thế này”.

Microsoft cho biết công ty đã mở một cuộc điều tra về vấn đề này và đang thực hiện các điều chỉnh để cải thiện độ chính xác của phản hồi. Người phát ngôn của Microsoft cho biết: "Chúng tôi đã đạt được tiến bộ đáng kể trong trải nghiệm trò chuyện, cung cấp cho hệ thống văn bản từ các kết quả tìm kiếm tốt nhất và hướng dẫn hệ thống phản hồi dựa trên những kết quả tìm kiếm tốt nhất đó và chúng tôi sẽ tiếp tục đầu tư hơn nữa vào lĩnh vực này."


US Lực lượng Không gian cấm AI

Trong khi đó, một bản ghi nhớ cho thấy rằng Lực lượng Không gian Hoa Kỳ đã tạm thời cấm sử dụng các công cụ AI tổng hợp dựa trên web và các mô hình ngôn ngữ lớn đằng sau chúng, với lý do bảo mật dữ liệu và các mối lo ngại khác. Bản ghi nhớ ngày 29 tháng 9 đã được gửi tới "Những người bảo vệ" (thành viên của Lực lượng Không gian). Bản ghi nhớ nêu rõ rằng họ "không được phép" sử dụng các công cụ AI này trên các hệ thống của chính phủ trừ khi được phê duyệt cụ thể.

Lisa Costa, giám đốc công nghệ và đổi mới của Lực lượng Không gian Hoa Kỳ, cho biết trong bản ghi nhớ rằng AI có thể tạo ra "chắc chắn sẽ biến đổi lực lượng lao động của chúng tôi và cải thiện khả năng hành động nhanh chóng của Người bảo vệ." Tuy nhiên, Costa cũng nêu những lo ngại về an ninh mạng, các yêu cầu xử lý dữ liệu và mua sắm, đồng thời cho rằng việc áp dụng AI và các mô hình ngôn ngữ lớn cần phải “có trách nhiệm”. Ngoài ra, bản ghi nhớ không đưa ra lời giải thích nào thêm về việc vô hiệu hóa công cụ AI.

Người phát ngôn của Lực lượng Không gian Hoa Kỳ xác nhận rằng bản ghi nhớ ngày 29 tháng 9 là xác thực và việc vô hiệu hóa tạm thời AI là một sự tạm dừng chiến lược để bảo vệ nhân sự và dữ liệu của Lực lượng Không gian trong khi xác định cách tích hợp các khả năng để hỗ trợ sứ mệnh và Người bảo vệ.