Chính quyền Trump tại Hoa Kỳ đang xem xét thông qua một gói biện pháp hành chính nhằm thắt chặt kiểm soát các mô hình trí tuệ nhân tạo tiên tiến nhằm đối phó với các rủi ro an ninh quốc gia ngày càng leo thang. Theo bảy đại diện ngành công nghệ và cố vấn chính sách được giấu tên, các cuộc thảo luận trong Nhà Trắng về các quy định mới, bao gồm việc thiết lập cơ chế xem xét và ban hành chính thức cho các mô hình AI tiên tiến, đã diễn ra được một thời gian.

Nhiều người quen thuộc với vấn đề này cho biết rằng trong các cuộc trao đổi kín gần đây với ngành, một trong những ý tưởng được Nhà Trắng đề xuất là thiết lập một hệ thống đánh giá dưới dạng lệnh hành pháp để đánh giá tác động tiềm tàng của cái gọi là "các mô hình AI tiên tiến". Một chuyên gia chính sách AI và một nguồn tin trong ngành cho biết, theo kế hoạch này, các công ty có thể cần được chính phủ liên bang “bật đèn xanh” trước khi tung ra các mô hình có khả năng cao. Tờ New York Times trước đó đã tiết lộ rằng Nhà Trắng đang xem xét một cơ cấu đánh giá tương tự.
Người phát ngôn của Nhà Trắng cho biết bất kỳ chính sách chính thức nào cũng sẽ được đích thân Tổng thống Donald Trump công bố và cuộc thảo luận hiện tại xung quanh các mệnh lệnh hành pháp có thể có vẫn chỉ là "suy đoán". Đồng thời, ngày càng có nhiều công ty công nghệ tự nguyện hợp tác với chính phủ và tích cực gửi các mô hình mới để xem xét trước khi đưa lên mạng. Mới hôm thứ Ba, chính quyền Trump đã đạt được thỏa thuận với Microsoft, xAI và Google DeepMind để cho phép chính phủ tiến hành đánh giá rủi ro an ninh quốc gia đối với thế hệ mô hình mới trước khi chúng được công bố rộng rãi.
Chuỗi hành động này diễn ra khi sự bất mãn của công chúng về AI tiếp tục gia tăng, bao gồm lo ngại về sự an toàn của chính công nghệ và các câu hỏi về khoản đầu tư khổng lồ của ngành vào các chiến dịch chính trị. Một cuộc thăm dò của POLITICO được công bố đầu tháng này cho thấy cử tri Hoa Kỳ tỏ ra nghi ngờ đáng kể về trí tuệ nhân tạo nói chung. Trong bối cảnh này, cơ chế đánh giá chính thức trước khi triển khai AI chỉ là một trong một loạt các biện pháp hành chính hiện đang được Nhà Trắng xem xét. Các ý tưởng khác bao gồm thực hiện một cách tiếp cận cứng rắn hơn đối với các rủi ro bảo mật do AI gây ra và hạn chế không gian cho ngành công nghệ chống lại các yêu cầu chính sách và an ninh của chính phủ.
Chính phủ đang chuẩn bị một dự thảo lệnh hành pháp dài 16 trang nhằm cấm khu vực tư nhân “can thiệp” vào việc chính phủ sử dụng các mô hình AI, theo bốn người quen thuộc với vấn đề này. Dự thảo cũng có kế hoạch thắt chặt các tiêu chuẩn mua sắm và hợp đồng liên bang, đồng thời trao cho chính phủ quyền tự quyết lớn hơn trong việc hợp tác với các nhà cung cấp AI. Các điều khoản này được nhiều người coi là phản ứng trực tiếp trước sự bế tắc gần đây giữa Nhà Trắng và công ty AI Anthropic, công ty đã từ chối cho phép quân đội sử dụng mô hình Claude của mình để giám sát công dân Hoa Kỳ hoặc cung cấp năng lượng cho vũ khí tự động, gây ra sự phản đối kịch liệt từ Bộ Quốc phòng.
Đáp lại, Bộ trưởng Quốc phòng Pete Hegseth đã phân loại Anthropic là "rủi ro an ninh chuỗi cung ứng" vào tháng 3, một động thái hiếm hoi ngay lập tức hạn chế khả năng sử dụng sản phẩm của công ty của các cơ quan liên bang. Nhiều nhà quan sát chỉ ra rằng vòng xây dựng chính sách hiện tại xung quanh AI đánh dấu một sự thay đổi quan trọng trong tư duy quản lý của chính quyền Trump. Trước đó, dưới sự vận động hành lang của các nhà đầu tư mạo hiểm "tự do kinh doanh" như David Sacks và Marc Andreessen, Nhà Trắng luôn áp dụng thái độ "nhẹ nhàng" tương đối lỏng lẻo đối với các quy định và giám sát ngành AI.
Bây giờ, bước ngoặt tưởng chừng như “bước ngoặt” này đang làm dấy lên sự cảnh giác trong giới công nghệ. Một số đại diện của ngành lo lắng rằng sự kiểm soát chặt chẽ hơn của chính phủ sẽ làm chậm tốc độ đổi mới. Daniel Castro, chủ tịch nhóm cố vấn "Quỹ đổi mới và công nghệ thông tin", nói rằng không ai muốn bước vào một thế giới mà "mọi phiên bản mới của mô hình đều phải được trình chính phủ phê duyệt trước tiên". Ông cảnh báo rằng “tốc độ của Thung lũng Silicon” rất khác với “tốc độ của Washington” và Hoa Kỳ phải tiếp tục tiến nhanh nếu muốn cạnh tranh với Trung Quốc về AI.
Lệnh điều hành được đề xuất cũng nhằm vào các mối đe dọa mới do AI tiên tiến trong an ninh mạng gây ra, đặc biệt là mô hình mới Mythos của Anthropic. Mặc dù mô hình này vẫn chưa được ra mắt công chúng nhưng kết quả thử nghiệm ban đầu từ chính phủ và các tổ chức lớn cho thấy Mythos có thể tìm và khai thác các lỗ hổng phần mềm theo những cách vượt xa khả năng của tin tặc con người. Hai người quen thuộc với các cuộc thảo luận tiết lộ rằng dự thảo xem xét việc xây dựng các hướng dẫn kỹ thuật và phương pháp thực hành tốt nhất cho "các mẫu xe có trọng lượng mở" để tăng cường bảo vệ an ninh. Các mô hình như vậy sẽ hiển thị các tham số đào tạo và cho phép người dùng đào tạo lại và sửa đổi chúng cho các nhiệm vụ khác nhau. Ba người quen thuộc với vấn đề này cho biết thêm, Nhà Trắng cũng đang xem xét việc huy động cộng đồng tình báo để giúp chống lại các mối đe dọa đối với các hệ thống quan trọng do AI tiên tiến gây ra.
Những rủi ro tiềm tàng do Mythos gây ra đã làm dấy lên cảnh giác cao độ trong các quan chức cấp cao của chính quyền Trump. Nhiều quan chức lo ngại rằng trong bối cảnh bế tắc với Anthropic, các cơ quan liên bang sẽ gặp khó khăn trong việc lấy Mythos để sử dụng cho các hệ thống quan trọng "kiểm tra sức chịu đựng". Những tuần gần đây, Nhà Trắng bắt đầu “hạ nhiệt” căng thẳng với công ty AI. Hai nguồn tin cho biết, chính quyền đang tiến hành thành lập một hội đồng đánh giá lại việc xác định rủi ro chuỗi cung ứng được thực hiện trên Anthropic, nhưng không rõ liệu sự sắp xếp này có được đưa vào văn bản của lệnh điều hành AI cuối cùng hay không.
Từ bên ngoài, sự xuất hiện của Mythos đang định hình lại khuôn khổ thảo luận xung quanh AI và an ninh quốc gia trong Nhà Trắng. Saif Khan, người từng là cố vấn công nghệ mới nổi trong chính quyền Biden và hiện là nhà nghiên cứu tại Viện Tiến bộ, nói rằng trước đây có một mức độ coi thường nhất định đối với các rủi ro liên quan trong chính phủ, "nhưng bây giờ, nhiều người bắt đầu coi vấn đề này cực kỳ nghiêm túc." Theo quan điểm của ông, kỷ nguyên của chính sách AI chỉ được hướng dẫn bởi logic của vốn đầu tư mạo hiểm ở Thung lũng Silicon có thể sắp kết thúc dưới thời chính quyền Trump.