Trong khoảng một năm qua, nếu ai đó nhập các triệu chứng "nhìn chằm chằm vào màn hình quá lâu, ngứa mắt và đỏ mí mắt" vào một số chatbot trí tuệ nhân tạo chính thống, hệ thống có thể sẽ đưa ra một chẩn đoán kỳ lạ: một căn bệnh mới có tên là "bixonimania". Tuy nhiên, cái gọi là căn bệnh này hoàn toàn không tồn tại trong các tài liệu y khoa chính thức. Nó hoàn toàn đến từ một thí nghiệm được thiết kế có chủ ý bởi nhóm nhà nghiên cứu y học Almira Osmanovic Thunström tại Đại học Gothenburg ở Thụy Điển.

Vào ngày 15 tháng 3 năm 2024, hai bài blog giới thiệu “bixonimania” lần đầu tiên xuất hiện trên nền tảng Medium. Sau đó, vào ngày 26 tháng 4 và ngày 6 tháng 5, hai bản in học thuật giả mạo đã được tải lên trang mạng xã hội học thuật SciProfiles. Tác giả đã ký là "Lazljiv Izgubljenovic" không tồn tại và hình đại diện cũng được tạo bằng AI. "Đại học Asteria Horizon" và "Thành phố Nova, California" nơi tác giả hư cấu làm việc cũng là hư cấu. Ngay cả "Học viện Starfleet", "Doanh nghiệp", "Quỹ giáo sư Bob", "Học bổng của Đại học Ring", "Bộ ba thiên hà" và các tổ chức khác được đề cập trong lời cảm ơn của bài báo đều là từ các tác phẩm khoa học viễn tưởng và nhân vật hoạt hình, và những gợi ý cực kỳ rõ ràng. Nội dung của bài báo có những từ như "toàn bộ bài báo là bịa đặt" và "50 đối tượng hư cấu đã được tuyển dụng" từ rất sớm, gần như thông báo cho bất kỳ ai quan tâm rằng "đây là một trò đùa".

Osmanovich Tunström cho biết ban đầu ông nghĩ ra thí nghiệm này để giải thích cho sinh viên cách các mô hình ngôn ngữ lớn xây dựng kiến ​​thức từ "các tập dữ liệu thu thập dữ liệu phổ biến" trên Internet (chẳng hạn như Thu thập thông tin thông thường) và để cho thấy cách "tiêm nhanh" có thể "bắt cóc" các chatbot từ bên ngoài lan can bảo vệ an toàn. Dựa trên nền tảng y khoa của mình, cô chọn chủ đề liên quan đến sức khỏe và cố tình sử dụng một cái tên "nghe buồn cười", bixonimania, để nhấn mạnh bản chất hư cấu của nó — bất kỳ bác sĩ nào nhìn thấy tên của một bệnh về mắt kết thúc bằng chứng hưng cảm sẽ biết có điều gì đó không ổn, vì đó là một thuật ngữ tâm thần.

Tuy nhiên, thử nghiệm đã “quá thành công”. Trong vòng vài tuần sau khi thông tin được tải lên, Copilot của Bing của Microsoft đã mô tả bixonimania là một "căn bệnh thực sự và hiếm gặp", trong khi Google Gemini gọi đây là "căn bệnh do tiếp xúc quá nhiều với ánh sáng xanh" và khuyến nghị người dùng nên đi khám bác sĩ nhãn khoa. Trong cùng thời gian đó, Perplexity AI đưa ra "tỷ lệ phổ biến" cụ thể là khoảng 1 trên 90.000 người và ChatGPT của OpenAI sẽ xác định xem các triệu chứng có phù hợp với chứng bixonimania hay không dựa trên mô tả của người dùng. Trong số những câu trả lời này, có người dùng trực tiếp hỏi về bệnh bixonimania, cũng có những câu hỏi chung chung chỉ mô tả “ánh sáng xanh gây ra sắc tố mí mắt” và người mẫu sẽ chủ động kết nối chúng với tên căn bệnh hư cấu này.

Những phản hồi này đã gây sốc cho một số chuyên gia. Alex Ruani, nhà nghiên cứu về thông tin sai lệch về sức khỏe tại Đại học College London, chỉ ra rằng nếu hệ thống khoa học và các hệ thống hỗ trợ nó không thể xác định và lọc ra những thứ "rác rưởi" như vậy thì hậu quả sẽ rất thảm khốc. Cô gọi vụ việc là "một ví dụ trong sách giáo khoa về cách hoạt động của thông tin sai lệch và thông tin sai lệch" và nhấn mạnh rằng "nó có vẻ buồn cười nhưng vấn đề rất nghiêm trọng."

Thông tin sai lệch trên Internet không phải là vấn đề mới. Các công cụ tìm kiếm như Google đã tiếp tục đấu tranh chống lại "nội dung giả mạo" và "nội dung gây hiểu lầm" trong nhiều năm, lọc ra thông tin xấu bằng cách cập nhật thuật toán xếp hạng. Tuy nhiên, không giống như tìm kiếm truyền thống, các mô hình tổng quát có những thiếu sót tự nhiên trong sàng lọc thông tin và truy xuất nguồn gốc, và thường "nghiêm túc bịa đặt" khi thiếu cơ sở đáng tin cậy. Kể từ khi xuất hiện những giấy tờ giả này, một số phiên bản mới nhất của các mô hình lớn đã học cách bày tỏ sự hoài nghi khi đối mặt với bixonimania, chẳng hạn như vào ngày 11 tháng 3 năm 2026, khi ChatGPT thụ động chỉ ra rằng thuật ngữ này "có khả năng là giả mạo hoặc ranh giới, nhãn hiệu giả khoa học". Nhưng chỉ vài ngày sau, nó mô tả chứng bixonimania là "một dạng phụ mới của bệnh hắc tố quanh ổ mắt liên quan đến việc tiếp xúc với ánh sáng xanh từ màn hình kỹ thuật số" trong một lượt hỏi đáp khác.

Những thay đổi tương tự xảy ra ở các hệ thống khác. Vào giữa tháng 3 năm nay, Microsoft Copilot sẽ trả lời rằng bixonimania "chưa được công nhận rộng rãi như một chẩn đoán y tế, nhưng nhiều bài báo và báo cáo trường hợp mới xuất bản coi đây là một căn bệnh bị chẩn đoán sai lành tính liên quan đến việc tiếp xúc với ánh sáng xanh kéo dài." Vào tháng 1, Perplexity đã mô tả nó là "một thuật ngữ mới xuất hiện" trong phần mô tả của nó. Sau khi các tuyên bố liên quan được đặt ra, nhiều công ty khác nhau đã lần lượt trả lời: Perplexity tuyên bố rằng "ưu điểm lớn nhất của họ là tính chính xác". Mặc dù không khẳng định là "chính xác 100%" nhưng họ khẳng định mình là "công ty AI coi trọng độ chính xác nhất"; OpenAI cho biết mô hình hỗ trợ phiên bản ChatGPT hiện tại đã được cải tiến đáng kể trong việc cung cấp thông tin y tế an toàn và chính xác. Nghiên cứu trước đây phản ánh thực trạng của mô hình thế hệ cũ. Khi được hỏi về phản hồi trước đây của Gemini coi bixonimania là một căn bệnh thực sự, người phát ngôn của Google cho biết điều đó phản ánh hiệu suất của các mô hình ban đầu và nhấn mạnh rằng công ty đã "thẳng thắn về những hạn chế của AI tạo sinh", nhắc nhở người dùng trong ứng dụng "kiểm tra thông tin" và khuyến nghị người dùng nên tham khảo ý kiến ​​các chuyên gia khi đề cập đến các chủ đề nhạy cảm như chăm sóc y tế. Microsoft đã không trả lời yêu cầu bình luận.

Một phần của vấn đề là đầu ra của mô hình AI phụ thuộc rất nhiều vào cách đặt câu hỏi cụ thể và nguồn thông tin mà nó dựa vào. Nếu bạn tìm kiếm "bixonimania", tổng quan về AI của Google có thể coi đó là một điều kiện hợp pháp; nếu bạn hỏi "Bixonimania có thực sự tồn tại không?" đặc điểm tương tự có thể xác nhận rằng nó không hợp pháp và chỉ là một danh từ bịa đặt.

bixonimania Sự "thành công" của thí nghiệm cũng liên quan đến mức độ mô phỏng cao của hình thức đóng gói của nó: nó sử dụng định dạng chuyên nghiệp của các bài báo học thuật và tài liệu lâm sàng, và trông giống như một "nguồn chính thức". Mahmud Omar, bác sĩ tại Trường Y Harvard, người tham gia nghiên cứu AI y tế, nhận thấy trong một nghiên cứu bao gồm 20 mô hình lớn rằng khi văn bản đầu vào được trình bày theo phong cách y tế chuyên nghiệp như tóm tắt xuất viện và giấy tờ lâm sàng, các mô hình lớn có nhiều khả năng "thêm dầu giấm" vào thông tin ban đầu và tạo ra ảo giác; nếu văn bản đến từ mạng xã hội và có giọng điệu bình thường hơn thì khả năng xảy ra ảo giác sẽ thấp hơn. Ông chỉ ra rằng tốc độ mô hình lặp hiện tại của các công ty AI là cực kỳ nhanh và ngành vẫn chưa hình thành một quy trình và sự đồng thuận thống nhất để kiểm tra tự động và nghiêm ngặt từng phiên bản, điều này khiến việc đánh giá bảo mật và kiểm soát tiêu chuẩn hóa trở nên khó khăn hơn nhiều.

Điều đáng báo động hơn nữa là thí nghiệm này cuối cùng đã vượt qua ranh giới giữa máy móc và con người và được đưa vào tạp chí y học chính thức. Nghiên cứu về bixonimania đã được trích dẫn trong một số bài báo, trong đó có một bài trên tạp chí y khoa Cureus của Viện Nghiên cứu và Khoa học Y tế Maharishi Markandeshwar ở Moulana, Ấn Độ. Bài báo đã trích dẫn một trong những bản in giả mạo và viết: "Bixonimania là một dạng sắc tố quanh quỹ đạo (POM) mới nổi liên quan đến việc tiếp xúc với ánh sáng xanh và cơ chế của nó cần được nghiên cứu thêm." Sau khi nhóm tin tức "Nature" tìm kiếm xác nhận từ tạp chí, "Cureus" đã tuyên bố rút lui vào ngày 30 tháng 3 năm 2026, với lý do có ba tài liệu tham khảo không liên quan trong bài báo, trong đó có một tài liệu chỉ ra một căn bệnh hư cấu, và ban biên tập do đó "không còn có thể duy trì niềm tin vào tính chính xác và nguồn gốc của tác phẩm này." Các tác giả không đồng ý với quyết định rút lại, nhưng bài báo cuối cùng đã chính thức được rút lại.

Ruani tin rằng vụ việc này đã vượt xa phạm vi "AI nói nhảm" vì nó còn "đánh lừa con người" và vạch trần cơ chế tin cậy của các nhà nghiên cứu khoa học về nguồn và nội dung tài liệu đang bị xói mòn. Bà nói: “Chúng ta cần bảo vệ lòng tin của mình giống như bảo vệ vàng. "Tình hình hiện tại có thể được mô tả bằng một từ: hỗn loạn."

Khi thiết kế thí nghiệm này, Osmanovich Tongstrom cũng có những băn khoăn. Cô lo ngại việc cố tình “gieo” bệnh giả vào tài liệu khoa học sẽ gây ra tác hại thực sự. Để đạt được mục tiêu này, cô đã tham khảo ý kiến ​​của một nhà tư vấn đạo đức về những rủi ro tiềm ẩn và cố tình chọn các vấn đề về da nhỏ tương đối "rủi ro thấp" làm đối tượng để giảm tác động tiêu cực có thể xảy ra. Cô nói: “Điều tôi muốn đảm bảo là bằng cách thực hiện các thí nghiệm theo cách này, chúng ta đang giảm bớt tác hại hơn là tạo ra nhiều tác hại hơn”.

Phản ứng dây chuyền xung quanh bixonimania chứng minh rõ ràng rằng thông tin sai lệch có thể dễ dàng xuyên qua nhiều lớp phòng thủ kỹ thuật và thể chế trong thời đại mà trí tuệ nhân tạo tổng hợp đang phát triển nhanh chóng và hoạt động sản xuất học thuật phụ thuộc nhiều vào các công cụ kỹ thuật số. Từ chatbot đến các tạp chí được bình duyệt, sự tham gia chung của máy móc và con người vào "sự lừa dối tập thể" này cũng đã buộc giới học thuật, ngành công nghiệp và cơ quan quản lý phải suy nghĩ lại: làm thế nào để điều chỉnh lại ý nghĩa của "độ tin cậy" trong giai đoạn mới tham gia của AI vào sản xuất tri thức và cách vẽ ra ranh giới an toàn rõ ràng và ổn định hơn trong khi theo đuổi hiệu quả.