Một công ty khởi nghiệp có tên Memvid mới đây đã đăng một thông báo tuyển dụng gây tranh cãi, công khai tuyển dụng một "kẻ bắt nạt AI chuyên nghiệp" để "tra tấn" các chatbot chính thống suốt cả ngày, với mức lương lên tới 800 USD, làm dấy lên cuộc tranh luận giữa thế giới bên ngoài rằng động cơ của nó là một bài kiểm tra kỹ thuật nghiêm túc hay một chiêu trò tiếp thị được thiết kế cẩn thận.
Memvid cho biết mục đích cốt lõi của đợt tuyển dụng này là để vạch trần hoàn toàn vấn đề "khiếm khuyết bộ nhớ" phổ biến trong các mô hình lớn và robot trò chuyện hiện nay. Công ty tin rằng mặc dù các mô hình ngôn ngữ lớn hoạt động tốt trong việc mô phỏng "các cuộc hội thoại thông minh có ý nghĩa" nhưng về bản chất chúng vẫn là những sản phẩm phần mềm lừa đảo với khả năng ghi nhớ rất hạn chế và thường "quên" những gì người dùng vừa nói trong cùng một vòng hội thoại, khiến người dùng phải nhắc lại thông tin nhiều lần.
Theo trang việc làm, vị trí làm việc theo giờ, kéo dài một ngày này được trả 100 đô la mỗi giờ, với tổng thu nhập là 800 đô la và dành cho những người làm việc từ xa trên toàn thế giới. Các tân binh sẽ tương tác với một số chatbot AI chính thống theo cách gần như “hung hăng” ở cường độ cao, liên tục yêu cầu họ phải ghi nhớ nhiều thông tin khác nhau. Trong quá trình này, hệ thống sẽ ghi lại các tình huống như hội thoại không thành công, quên ngữ cảnh, mâu thuẫn. Ngoài việc thí sinh tự ghi chép chi tiết, Memvid cũng sẽ ghi lại toàn bộ quá trình thí nghiệm thông qua ghi màn hình hoặc camera để phân tích sau này.
Điều thú vị là công việc này không yêu cầu ứng viên phải có nền tảng kỹ thuật AI hay "kinh nghiệm bắt nạt" nhưng lại nêu rõ trong điều kiện: Ứng viên cần nộp bản tường trình cá nhân chi tiết giải thích những trải nghiệm tiêu cực trong quá khứ khi sử dụng sản phẩm công nghệ và phải có sự không hài lòng rõ ràng và mạnh mẽ với công nghệ AI hiện tại. Mohamed Omar, người đồng sáng lập và CEO của công ty, cho biết họ muốn tìm “một người thực sự ghét AI” để hoàn thành nhiệm vụ.
Omar đã chỉ ra trong một cuộc phỏng vấn rằng các vấn đề nghiêm trọng về bộ nhớ mà chatbot ngày nay gặp phải có liên quan chặt chẽ đến sự "không đáng tin cậy" của các giải pháp bộ nhớ AI thế hệ đầu. Theo quan điểm của ông, việc có thể liên tục lưu giữ thông tin người dùng và duy trì sự mạch lạc theo ngữ cảnh trong các cuộc trò chuyện dài chính là chén thánh của “một chatbot thực sự hữu ích”. Hiện tượng được gọi là "ảo giác" phần lớn là kết quả trực tiếp của cơ chế bộ nhớ mô hình lớn kém và thói quen sử dụng.
Memvid tận dụng cơ hội này để quảng bá giải pháp lớp bộ nhớ AI tự phát triển của mình. Công ty tuyên bố rằng đây là thành phần bộ nhớ tự cải thiện dựa trên tệp, có thể cung cấp bối cảnh liên tục trong các cuộc hội thoại cho các mô hình và chatbot lớn, từ đó cải thiện độ chính xác của phản hồi, giảm độ trễ và cải thiện việc sử dụng cơ sở hạ tầng mà không làm giảm hiệu suất. Lớp bộ nhớ này có thể được sử dụng làm khả năng cốt lõi của sản phẩm chatbot Kora của Memvid hoặc có thể được tích hợp vào các sản phẩm AI khác dưới dạng công cụ dành cho nhà phát triển.
Khi các mô hình lớn được triển khai rộng rãi trong các kịch bản ứng dụng thực tế, vấn đề về bộ nhớ của AI ngày càng trở nên nổi bật: trước kho dữ liệu khổng lồ và yêu cầu kinh doanh phức tạp, chatbot thường xuyên gặp phải "các mảnh vỡ", quên đi quá khứ và hiện tại hoặc thậm chí tạo ra những thứ ngẫu nhiên trong quá trình tương tác lâu dài và nhiều vòng, đồng thời trải nghiệm người dùng liên tục bị tổn hại. Trong bối cảnh này, việc tuyển dụng “bắt nạt AI” của Memvid vừa giống như một quảng cáo sáng tạo cho sản phẩm của chính mình, vừa là lời cảnh tỉnh để nhắc lại hiện trạng của ngành, nhắc nhở công chúng rằng AI hiện tại vẫn còn lâu mới trở thành “đối tác trò chuyện thực sự đáng tin cậy”.
Memvid cho biết việc tuyển dụng cho vị trí này sẽ tiếp tục trong vài tuần và chỉ một ứng viên sẽ được chọn. Công ty hy vọng sẽ thu được đủ số trường hợp tiêu cực thông qua cuộc "tra tấn" chuyên sâu này đối với các chatbot chính thống, chúng sẽ không chỉ cung cấp tài liệu trưng bày cho các sản phẩm của chính họ mà còn cung cấp điểm khởi đầu sinh động cho các cuộc thảo luận xã hội về độ an toàn và độ tin cậy của AI.