Các nhóm cực đoan đã bắt đầu thử nghiệm việc sử dụng trí tuệ nhân tạo, đặc biệt là trí tuệ nhân tạo tổng hợp, để tạo ra một số lượng lớn tài liệu tuyên truyền mới. Các chuyên gia hiện lo lắng rằng việc các nhóm ngày càng sử dụng nhiều công cụ trí tuệ nhân tạo tổng hợp sẽ đảo ngược công việc mà Big Tech đã thực hiện trong những năm gần đây nhằm ngăn chặn nội dung của họ xâm nhập vào Internet.

“Mối quan tâm lớn nhất của chúng tôi là nếu những kẻ khủng bố bắt đầu sử dụng AI tổng hợp để thao túng hình ảnh trên quy mô lớn, điều đó rất có thể phá hủy giải pháp chia sẻ băm,” Adam Hadley, giám đốc điều hành của TechAgainstTerrorism, nói với WIRED. "Đây là một rủi ro lớn."

Trong nhiều năm, các nền tảng Big Tech đã nỗ lực tạo ra cơ sở dữ liệu về nội dung cực đoan bạo lực đã biết, còn gọi là cơ sở dữ liệu băm, được chia sẻ trên các nền tảng để nhanh chóng và tự động xóa nội dung đó khỏi Internet. Nhưng theo Hadley, các đồng nghiệp của ông hiện đang phát hiện khoảng 5.000 trường hợp nội dung do AI tạo ra mỗi tuần. Chúng bao gồm những hình ảnh được chia sẻ trong những tuần gần đây bởi các nhóm có liên hệ với Hezbollah và Hamas, dường như nhằm mục đích gây ảnh hưởng đến câu chuyện xung quanh cuộc chiến Israel-Hamas.

Hadley cho biết: "Trong khoảng sáu tháng nữa, khả năng [họ] đang thao túng hình ảnh để bẻ khóa các thuật toán băm thực sự đáng lo ngại. Cộng đồng công nghệ đã làm rất tốt việc xây dựng các công nghệ tự động đến mức những kẻ khủng bố có thể bắt đầu sử dụng AI di truyền để phá hoại công việc đã được thực hiện."

Các ví dụ khác được các nhà nghiên cứu TechTerrorism phát hiện trong những tháng gần đây bao gồm: kênh nhắn tin của Đức Quốc xã mới chia sẻ các hình ảnh do AI tạo ra bằng cách sử dụng các lời nhắc phân biệt chủng tộc và bài Do Thái được dán vào các ứng dụng trong Cửa hàng Google Play; và các cá nhân cực hữu tạo ra một "hướng dẫn chiến tranh ký ức" tư vấn cho người khác cách khai thác các hình ảnh do AI tạo ra. Các công cụ hình ảnh tạo ra các bản ghi nhớ cực đoan; Nhà nước Hồi giáo đã phát hành hướng dẫn hỗ trợ kỹ thuật về cách sử dụng an toàn các công cụ do AI tạo ra; một người sử dụng dịch vụ lưu trữ ủng hộ Nhà nước Hồi giáo tuyên bố đã sử dụng hệ thống nhận dạng giọng nói tự động (ASR) dựa trên AI để ghi lại tuyên truyền của Nhà nước Hồi giáo bằng tiếng Ả Rập; và một cơ quan truyền thông ủng hộ Al Qaeda đã xuất bản một số áp phích có hình ảnh rất có thể được tạo ra bằng trí tuệ nhân tạo.

Ngoài việc nêu chi tiết các mối đe dọa do các công cụ AI tổng hợp có thể chỉnh sửa hình ảnh gây ra, TechTerrorism đã xuất bản một báo cáo mới liệt kê các cách khác mà các công cụ AI di truyền có thể được sử dụng để trợ giúp các nhóm cực đoan, bao gồm khả năng chuyển đổi tuyên truyền sang nhiều ngôn ngữ một cách nhanh chóng và dễ dàng hoặc tạo thông điệp được cá nhân hóa trên quy mô lớn. Để tạo điều kiện thuận lợi cho nỗ lực tuyển dụng trực tuyến. Nhưng Hadley tin rằng trí tuệ nhân tạo cũng mang đến cơ hội để chúng ta đi trước các nhóm cực đoan một bước và sử dụng công nghệ để tấn công phủ đầu.

Hadley cho biết: "Chúng tôi sẽ hợp tác với Microsoft để khám phá xem có cách nào để sử dụng kho lưu trữ dữ liệu của chúng tôi nhằm tạo ra hệ thống phát hiện trí tuệ nhân tạo di truyền nhằm đối phó với mối đe dọa mới về trí tuệ nhân tạo di truyền đang được sử dụng trên quy mô lớn cho nội dung khủng bố hay không." Chúng tôi tin rằng AI di truyền có thể được sử dụng để chống lại việc sử dụng AI di truyền mang tính thù địch."

Hôm nay tại Hội nghị thượng đỉnh các nhà lãnh đạo kêu gọi Christchurch (Christchurch), mối quan hệ hợp tác đã được công bố vào đêm trước Hội nghị thượng đỉnh các nhà lãnh đạo cuộc gọi ở Paris, một chiến dịch nhằm loại bỏ nội dung khủng bố và cực đoan trên Internet.Brad Smith, phó chủ tịch kiêm chủ tịch Tập đoàn Microsoft, cho biết trong một tuyên bố: "Việc sử dụng nền tảng kỹ thuật số để truyền bá nội dung cực đoan bạo lực là một vấn đề cấp bách với những hậu quả trong thế giới thực. Bằng cách kết hợp khả năng chống khủng bố của công nghệ với trí tuệ nhân tạo, chúng tôi hy vọng sẽ giúp tạo ra một môi trường an toàn hơn cả trực tuyến và ngoại tuyến." Một thế giới an toàn. "

Trong khi các công ty như Microsoft, Google và Facebook đều có bộ phận nghiên cứu AI của riêng họ và có khả năng đã triển khai các nguồn lực của riêng họ để giải quyết vấn đề này, thì sáng kiến mới cuối cùng sẽ giúp các công ty không thể tự mình giải quyết những vấn đề này.

"Điều này đặc biệt quan trọng đối với các nền tảng nhỏ hơn không có trung tâm nghiên cứu AI của riêng họ," Hadley nói. "Ngay cả bây giờ, với hash

Mối đe dọa từ nội dung do AI tạo ra không chỉ giới hạn ở các nhóm cực đoan. Tháng trước, Internet Watch Foundation, một tổ chức phi lợi nhuận của Anh chuyên xóa nội dung bóc lột trẻ em khỏi Internet, đã công bố một báo cáo chi tiết về số lượng tài liệu lạm dụng tình dục trẻ em (CSAM) ngày càng tăng được tạo ra bởi các công cụ trí tuệ nhân tạo trên web đen.

Các nhà nghiên cứu phát hiện ra rằng chỉ trong một tháng, hơn 20.000 hình ảnh do AI tạo ra đã được đăng lên diễn đàn CSAM darknet, 11.108 trong số đó được các nhà nghiên cứu IWF đánh giá là có nhiều khả năng phạm tội nhất. Như các nhà nghiên cứu của IWF đã viết trong báo cáo: "Những hình ảnh trí tuệ nhân tạo này có thể thuyết phục đến mức không thể phân biệt được với hình ảnh thật."