Mới hôm qua, Anthropic đã ra mắt đại lý mới. Nhiều nguồn truyền thông tiết lộ Anthropic đã nộp hồ sơ tổ chức lên Ủy ban bầu cử liên bang Hoa Kỳ để thành lập một ủy ban hành động chính trị doanh nghiệp có tên AnthroPAC. Tài liệu thể hiện người ký là Allison Rossi, thủ quỹ của công ty; tổ chức này đang chuẩn bị hỗ trợ các ứng cử viên của cả hai đảng trong cuộc bầu cử giữa kỳ năm 2026. Khoản tiền này đến từ sự đóng góp tự nguyện của nhân viên, với mức trần hàng năm là 5.000 USD mỗi người.

PAC công ty không phải là tổ chức nghiên cứu hay công ty vận động hành lang. Mục đích của Anthropic khi làm điều này rất đơn giản: quyên góp cho các ứng cử viên, hỗ trợ quảng cáo chiến dịch và vận động bầu cử, đồng thời ảnh hưởng trực tiếp đến việc ai có thể giành được ghế.
Đầu tiên hãy giải thích PAC (Ủy ban Hành động Chính trị) là gì.
Hoa Kỳ luật không cho phép các công ty chuyển tiền trực tiếp từ tài khoản công ty cho ứng viên, vì vậy, một thông lệ phổ biến đối với các công ty công nghệ là: nhân viên đầu tư, công ty tổ chức và cuối cùng là hình thành PAC của công ty. Sự khác biệt lớn nhất giữa nó và các tổ chức vận động chính sách thông thường, các tổ chức tư vấn hoặc hiệp hội ngành là nó có thể trực tiếp gửi tiền cho các ứng cử viên.
Nhân loại Bước này không phải ngẫu nhiên mà có. Ngay từ tháng 2 năm nay, công ty đã công bố khoản quyên góp 20 triệu USD cho Public First Action. Vào thời điểm đó, Anthropic tuyên bố rằng số tiền này sẽ được sử dụng để hỗ trợ tính minh bạch của AI, các biện pháp bảo vệ an toàn, khuôn khổ quản trị liên bang mạnh mẽ hơn, kiểm soát xuất khẩu chip và quản lý chặt chẽ hơn các tình huống rủi ro cao như rủi ro sinh học và tấn công mạng.
Hành động công khai đầu tiên này và AnthroPAC không giống nhau. Tổ chức trước đây là tổ chức 501(c)(4) theo luật Hoa Kỳ và có thể thực hiện vận động chính sách, giáo dục công cộng và vận động bầu cử, đồng thời gây ảnh hưởng đến các ứng cử viên thông qua quảng cáo và tuyên truyền; sau này là PAC của công ty có thể trực tiếp cung cấp kinh phí tranh cử cho các ứng cử viên và tham gia vào quá trình phân phối quỹ bầu cử.
Đặt hai bước này lại với nhau, mục đích của Anthropic là hiển nhiên. Công ty đang cố gắng hết sức để can thiệp vào cấp độ ra quyết định chính sách.
Tại sao các công ty AI muốn tham gia vào PAC
Trên thực tế, Anthropic không phải là công ty duy nhất bắt đầu thất bại. Quy mô của quỹ bầu cử xoay quanh trí tuệ nhân tạo ở Hoa Kỳ sẽ được mở rộng đáng kể vào năm 2026.
Trong hệ thống bầu cử Hoa Kỳ, PAC của công ty chỉ là một trong nhiều công cụ tài trợ. Theo dữ liệu công khai, số lượng PAC khác nhau được Ủy ban bầu cử liên bang Hoa Kỳ đăng ký vẫn ở mức hàng nghìn trong một thời gian dài và hầu như tất cả các công ty công nghệ lớn đều có PAC công ty riêng để tiếp tục hỗ trợ các ứng cử viên liên quan đến ngành.
So với quyên góp một lần, ưu điểm của loại tổ chức này là nó có thể hoạt động qua nhiều chu kỳ bầu cử và điều chỉnh linh hoạt các mục tiêu hỗ trợ dựa trên ủy ban quốc hội, tiến độ dự luật, v.v.
Sau khi trí tuệ nhân tạo trở thành một vòng chủ đề cốt lõi mới, các quỹ liên quan bắt đầu nhanh chóng tập trung vào một số hướng chính: thứ nhất, cơ sở hạ tầng điện toán, bao gồm trung tâm dữ liệu, năng lượng và cung cấp chip; thứ hai, khung pháp lý, bao gồm trách nhiệm của mô hình, ranh giới sử dụng dữ liệu và bảo mật; thứ ba, mua sắm của chính phủ, tức là liệu công nghệ AI có thể tham gia vào các kịch bản ngân sách cao như quốc phòng và dịch vụ công hay không.
Theo tiết lộ của truyền thông nước ngoài, siêu PAC "Dẫn đầu tương lai" ban đầu huy động được khoảng 50 triệu USD, sau đó mở rộng lên 125 triệu USD; đồng thời, "Innovation Council Action" (Hành động của Hội đồng Đổi mới) cũng đang chuẩn bị đầu tư hơn 100 triệu USD vào các khoản đầu tư liên quan đến bầu cử giữa kỳ.
Trong số đó, “Dẫn đầu tương lai” giống như một nền tảng tài trợ do vốn công nghệ dẫn đầu, đầu tư tiền trực tiếp vào các ứng viên hỗ trợ phát triển AI và cơ sở hạ tầng máy tính; “Hành động của Hội đồng Đổi mới” tập trung vào việc xây dựng trung tâm dữ liệu và khung pháp lý liên bang.
Trong giai đoạn trước, Anthropic đã được chứng minh là “an toàn” và “trung lập” trong ngành AI, và giờ đây nó cũng đã tiến tới mức tham gia vào các quỹ bầu cử.
Đằng sau đây là hàng loạt xung đột ngoài đời thực mà Anthropic đã trải qua trong thời gian gần đây. Tháng trước, Bộ Quốc phòng Hoa Kỳ đã xếp Anthropic vào loại “rủi ro chuỗi cung ứng” và hạn chế công ty này tham gia vào một số hợp đồng quân sự. Động thái này đã trực tiếp chặn một phần tư cách của công ty AI để tham gia hệ thống mua sắm của chính phủ.
Nền tảng của cuộc xung đột này rất đơn giản. Anthropic và Lầu Năm Góc trước đây đã phá vỡ các điều khoản sử dụng mô hình. Anthropic tuyên bố tuân thủ hai ranh giới đỏ: nó không chấp nhận sự giám sát hàng loạt của người Mỹ, cũng như không chấp nhận việc sử dụng trực tiếp Claude trong các hệ thống vũ khí tự động hoàn toàn. Quan điểm của Lầu Năm Góc thì ngược lại, khi Bộ trưởng Quốc phòng Pete Hegseth công khai lập luận rằng quân đội có thể sử dụng AI cho “bất kỳ mục đích hợp pháp nào”.
Sau khi xung đột leo thang, Anthropic đã đệ đơn kiện vào ngày 9 tháng 3. Họ lần lượt khởi kiện chính phủ Hoa Kỳ ở California và Washington, cáo buộc việc xác định "rủi ro chuỗi cung ứng" này là chưa từng có và bất hợp pháp, đồng thời ngụ ý trả đũa lập trường an ninh AI của họ.
Chân trước mâu thuẫn với chính phủ, chân sau là Anthropic thành lập PAC và muốn "quan hệ công chúng". Điều đó là hợp lý một cách tự nhiên, đặc biệt là khi Anthropic đang trong giai đoạn quan trọng để cạnh tranh thị trường và phát triển năng lực của mô hình.
Cách đây vài ngày, Anthropic đã vô tình rò rỉ tài liệu mô hình mới chưa được phát hành do lỗi cấu hình trong hệ thống quản lý nội dung. Các tài liệu bị rò rỉ cho thấy công ty đang thử nghiệm một mô hình mới có tên Claude Mythos, còn được gọi nội bộ là Capybara, và thừa nhận rằng đây là hệ thống mạnh nhất của công ty.
Theo tài liệu bị rò rỉ và phản hồi sau đó của Anthropic, mẫu mới này mạnh hơn đáng kể so với Claude Opus 4.6 trước đó về lý luận, mã hóa và bảo mật mạng và đã bước vào giai đoạn thử nghiệm sớm với khách hàng.
Quan trọng hơn, tài liệu bị rò rỉ nêu rất rõ: Khả năng bảo mật mạng của Capybara "vượt xa" các hệ thống hiện có và có thể bị tin tặc lợi dụng để thực hiện các cuộc tấn công và khai thác lỗ hổng tự động quy mô lớn. Do đó, công ty có kế hoạch mở quyền truy cập sớm cho các cơ quan bảo vệ an ninh mạng thay vì triển khai toàn diện.
Điều này có nghĩa là nếu thông tin trên là đúng thì mối lo ngại của Anthropic về khía cạnh an toàn của mẫu xe là có thật. Một khi được áp dụng trong một số lĩnh vực nhất định, khả năng thiếu hụt của mẫu máy thế hệ mới sẽ trở thành “Chiếc hộp Pandora”.
Mặt khác, xung đột ngoài đời thực với Lầu Năm Góc đã buộc Anthropic phải đối mặt với việc can thiệp vào quá trình ra quyết định.
Khả năng kiếm tiền của các công ty AI không bị giới hạn ở các mô hình
Hiện tại, hoạt động kinh doanh của Anthropic đang trải qua thời kỳ siêu tăng tốc.
Vòng tài trợ mới nhất đạt 30 tỷ USD và định giá đã tăng lên 380 tỷ USD. Anthropic rõ ràng đang tập trung vào thị trường AI dành cho doanh nghiệp, đặc biệt là sản phẩm mã hóa Claude Code và hệ thống plug-in dành cho doanh nghiệp được mở rộng xung quanh công cụ tác nhân Cowork.
Từ quan điểm logic kinh doanh, điểm này rất quan trọng. Các sản phẩm của Claude Code và Đại lý tương tự càng bán được nhiều thì Anthropic càng dựa vào các khách hàng lớn, hệ sinh thái của nhà phát triển và các kịch bản ngành phức tạp; và việc thực hiện các kịch bản này thường gắn liền với việc ra quyết định chính sách.
Theo tiết lộ của truyền thông nước ngoài, Anthropic gần đây đã tăng cường mối quan hệ với chính phủ và các cơ quan an ninh, không chỉ ở Hoa Kỳ. Chỉ hai ngày trước, Anthropic đã ký một biên bản ghi nhớ về bảo mật và nghiên cứu AI với chính phủ Úc, hứa hẹn chia sẻ dữ liệu chỉ số kinh tế, năng lực mô hình và kết quả nghiên cứu rủi ro cũng như tham gia đánh giá an ninh chung.
Rõ ràng, siêu kỳ lân AI này muốn chiếm vị trí chủ động hơn trong quan hệ chính phủ.
Gộp những manh mối này lại với nhau, động lực thành lập PAC lần này của Anthropic thực ra rất cụ thể. Thứ nhất, xung đột ở Lầu Năm Góc cho thấy hệ thống hành chính và mua sắm có thể tác động trực tiếp rất lớn đến hoạt động kinh doanh của công ty; mặt khác, bước nhảy vọt về khả năng của mô hình mới đã khiến ranh giới về khả năng của mô hình gây tranh cãi.
Trên thực tế, kiểu nhận dạng “rủi ro chuỗi cung ứng” này có tác động rất lớn đến hệ thống mua sắm của chính phủ Hoa Kỳ. Các quy định liên quan cho phép chính phủ loại các công ty khỏi danh sách đấu thầu các dự án nhạy cảm mà không tiết lộ tất cả bằng chứng. Một khi có tên trong danh sách, công ty sẽ không chỉ mất hợp đồng hiện tại mà còn có thể gặp khó khăn trong việc tham gia nhóm đấu thầu liên quan trong vài năm tới.
Hơn nữa, các hợp đồng AI của khu vực công và quốc phòng Hoa Kỳ thường rất lớn. Dữ liệu công khai cho thấy các công ty như Palantir từng chiếm hơn 50% doanh thu từ các hợp đồng của chính phủ và số tiền của một dự án có thể lên tới hàng trăm triệu đô la. Do đó, một khi một công ty AI bị hạn chế trong hệ thống này, nó sẽ không ảnh hưởng đến một đơn hàng nào mà là toàn bộ thị trường có giá trị cao.
Vì vậy, điều Anthropic muốn rất đơn giản: thiết lập các kết nối và kênh tài chính của mình trước khi vòng quy tắc AI tiếp theo được hình thành. Nhiều hạn chế chính mà các công ty AI ngày nay phải đối mặt cuối cùng không phải do bản thân các mô hình mà do những người có ngân sách và hoạt động mua sắm quyết định.
Ở cấp độ bầu cử cụ thể, nguồn tài trợ cho AI đã bắt đầu có tác động trực tiếp. Theo thống kê của truyền thông nước ngoài, các quỹ liên quan đến AI đã được đầu tư hơn 185 triệu USD trong cuộc bầu cử giữa kỳ năm 2026. Trong 20 cuộc bầu cử ở Texas và Bắc Carolina nhận được sự hỗ trợ tài chính liên quan, chỉ có một ứng cử viên thua cuộc và số còn lại tiến cử thành công hoặc đắc cử.
Với nỗ lực PAC của các công ty AI, trò chơi tài nguyên bên ngoài mô hình này đã bắt đầu từ trước.