Những hình ảnh lạm dụng tình dục trẻ em do AI tạo ra đang trở thành "cơn ác mộng tồi tệ nhất của bạn" và có nguy cơ tràn ngập Internet, một cơ quan giám sát an ninh đã cảnh báo. Tổ chức Theo dõi Internet (IWF) cho biết họ đã phát hiện gần 3.000 hình ảnh lạm dụng do AI tạo ra rõ ràng đã vi phạm luật pháp của Vương quốc Anh.

Tổ chức có trụ sở tại Vương quốc Anh cho biết những hình ảnh đời thực hiện có về các nạn nhân bị lạm dụng đang được đưa vào các mô hình AI để sau đó tạo ra các mô tả mới.

Nhóm nói thêm rằng kỹ thuật này cũng được sử dụng để tạo ra hình ảnh những người nổi tiếng đã "trẻ hóa" và sau đó được miêu tả là trẻ em trong các cảnh lạm dụng tình dục. Các ví dụ khác về tài liệu lạm dụng tình dục trẻ em (CSAM) bao gồm việc sử dụng các công cụ trí tuệ nhân tạo để tìm thấy hình ảnh "khỏa thân" của trẻ em mặc quần áo trên mạng.

Diễn đàn Phụ nữ Quốc tế đã cảnh báo vào mùa hè này rằng bằng chứng về lạm dụng do AI gây ra đang bắt đầu xuất hiện, nhưng họ cho biết các báo cáo mới nhất cho thấy việc sử dụng công nghệ này đang tăng tốc. Giám đốc điều hành IWF Susie Hargreaves cho biết "cơn ác mộng tồi tệ nhất của cơ quan giám sát đã trở thành sự thật".

"Đầu năm nay, chúng tôi đã cảnh báo rằng hình ảnh AI có thể sớm trở nên không thể phân biệt được với hình ảnh thật về trẻ em bị lạm dụng tình dục và chúng ta có thể bắt đầu thấy những hình ảnh như vậy ngày càng phổ biến." Cô nói: "Chúng ta hiện đã qua giai đoạn đó. Thật rùng mình khi thấy bọn tội phạm đang cố tình huấn luyện AI của chúng dựa trên hình ảnh của những nạn nhân thực sự đã bị lạm dụng. Những đứa trẻ từng bị cưỡng hiếp trong quá khứ hiện đang được đưa vào các tình huống mới bởi vì ai đó, ở đâu đó, muốn xem nó."

Diễn đàn Phụ nữ Quốc tế cho biết họ cũng đã thấy bằng chứng về việc hình ảnh do AI tạo ra được bán trực tuyến. Những phát hiện mới nhất dựa trên cuộc điều tra kéo dài một tháng về các diễn đàn lạm dụng trẻ em trên web đen. Nó đã điều tra 11.108 hình ảnh trên diễn đàn, 2.978 trong số đó vi phạm luật pháp Vương quốc Anh khi mô tả lạm dụng tình dục trẻ em.

CSAM do AI tạo ra là bất hợp pháp theo Đạo luật Bảo vệ Trẻ em năm 1978, quy định việc chụp, phát tán và sở hữu "những bức ảnh không đứng đắn hoặc giả mạo" về trẻ em là hành vi phạm tội. Diễn đàn Phụ nữ Quốc tế cho biết phần lớn tài liệu bất hợp pháp mà họ phát hiện đã vi phạm Đạo luật Bảo vệ Trẻ em, với hơn 1/5 số hình ảnh được phân loại là Loại A, loại nội dung nghiêm trọng nhất có thể mô tả hành vi hiếp dâm và lạm dụng tình dục.

Đạo luật Tư pháp và Điều tra viên năm 2009 cũng hình sự hóa các hình ảnh bị cấm không được chụp ảnh về trẻ em, chẳng hạn như tranh biếm họa hoặc tranh vẽ. IWF lo ngại rằng làn sóng CSAM do AI tạo ra sẽ khiến các cơ quan thực thi pháp luật mất tập trung trong việc phát hiện hành vi lạm dụng thực sự và giúp đỡ nạn nhân.

Hargreaves nói: "Nếu chúng tôi không kiểm soát mối đe dọa này, tài liệu này có khả năng áp đảo Internet."

Giám đốc công nghệ IWF Dan Sykes Dan Sexton cho biết công cụ tạo hình ảnh StableDiffusion là một mô hình trí tuệ nhân tạo được cung cấp công khai và có thể được điều chỉnh để giúp tạo ra CSAM. Đây cũng là sản phẩm trí tuệ nhân tạo duy nhất được thảo luận trên diễn đàn.

"Chúng tôi đang thấy các cuộc thảo luận xung quanh việc tạo nội dung bằng StableDiffusion, một phần mềm được cung cấp công khai."

StabilityAI, công ty Anh đứng sau StableDiffusion, cho biết họ "cấm sử dụng sai mục đích trên nền tảng của chúng tôi cho bất kỳ mục đích bất hợp pháp hoặc phi đạo đức nào và chính sách của chúng tôi nêu rõ rằng điều này bao gồm cả nội dung xâm hại tình dục trẻ em".

Chính phủ cho biết một dự luật an ninh mạng sắp trở thành luật sẽ bao gồm nội dung CSAM do AI tạo ra và yêu cầu các công ty truyền thông xã hội ngăn nội dung này xuất hiện trên nền tảng của họ.